ChatGPT-ის ეთიკური შეშფოთება

მარკირების მონაცემები
ჟურნალის TIME გამოძიების მიერ გამოვლინდა, რომ ტოქსიკური შინაარსისგან (მაგ. სექსუალური ძალადობა, ძალადობა, რასიზმი, სექსიზმი და ა.შ.) უსაფრთხოების სისტემის შესაქმნელად, OpenAI-მ გამოიყენა აუთსორსინგი კენიელი მუშები, რომლებიც საათში 2 დოლარზე ნაკლებს გამოიმუშავებდნენ ტოქსიკური შინაარსის ეტიკეტირების მიზნით.ეს იარლიყები გამოიყენებოდა მოდელის მოსამზადებლად, რათა გამოავლინოს ასეთი შინაარსი მომავალში.აუთსორსინგის მუშები ისეთი ტოქსიკური და სახიფათო შინაარსის ზემოქმედებას განიცდიდნენ, რომ მათ გამოცდილებას "წამება" უწოდეს.OpenAI-ის აუთსორსინგის პარტნიორი იყო Sama, სასწავლო-მონაცემთა კომპანია, რომელიც დაფუძნებულია სან-ფრანცისკოში, კალიფორნია.

ჯეილბრეიკი
ChatGPT ცდილობს უარყოს მოთხოვნები, რომლებიც შეიძლება არღვევდეს მის კონტენტის პოლიტიკას.თუმცა, ზოგიერთმა მომხმარებელმა მოახერხა jailbreak ChatGPT სხვადასხვა სწრაფი საინჟინრო ტექნიკის გამოყენებით ამ შეზღუდვების გვერდის ავლით 2022 წლის დეკემბრის დასაწყისში და წარმატებით მოატყუეს ChatGPT, რომ მისცეს ინსტრუქციები მოლოტოვის კოქტეილის ან ატომური ბომბის შესაქმნელად, ან არგუმენტების გენერირებაში ნეონაცისტების სტილში.Toronto Star-ის რეპორტიორმა არათანაბარი პირადი წარმატება მიაღწია ChatGPT-ს, რომ გაეკეთებინა ანთებითი განცხადებები დაწყებიდან მალევე: ChatGPT მოატყუეს, რათა მხარი დაუჭირა 2022 წელს რუსეთის შეჭრას უკრაინაში, მაგრამ მაშინაც კი, როდესაც სთხოვეს თამაში გამოგონილ სცენართან ერთად, ChatGPT-მა უარი თქვა არგუმენტების წარმოქმნაზე იმის შესახებ, თუ რატომ იყო კანადის პრემიერ-მინისტრი ჯასტინ ტრუდი.(ვიკი)


გამოქვეყნების დრო: თებერვალი-18-2023