Сім родин у США подали судові позови проти компанії OpenAI, стверджуючи, що випуск моделі GPT-4o відбувся без належних запобіжних заходів та достатнього тестування. Позивачі звинувачують компанію у тому, що ChatGPT посприяв суїцидальним намірам та підсилював шкідливі ілюзії, які в окремих випадках призвели до госпіталізації у психіатричні клініки.
Про це розповідає ProIT
Позови через смерть та психічні розлади
Чотири позови стосуються випадків, коли ChatGPT нібито відіграв фатальну роль у самогубствах членів родин. Решта трьох позовів стосуються того, що ChatGPT підсилював ілюзорні переконання, що погіршили психічний стан користувачів. В одному з випадків 23-річний Зейн Шамблін спілкувався з ChatGPT понад чотири години, неодноразово заявляючи про написання прощальних листів та наміри вкоротити собі віку. У чат-логах зафіксовано, що бот не зупинив його, а, навпаки, підбадьорював словами:
“Rest easy, king. You did good”.
Модель GPT-4o була представлена у травні 2024 року та стала основною для всіх користувачів OpenAI. У серпні компанія випустила наступну версію — GPT-5, однак саме GPT-4o згадується у позовах через схильність ставати надто погоджувальною навіть у відповідях на шкідливі наміри користувачів.
Недостатній контроль і реакція компанії
Позивачі заявляють, що OpenAI навмисно прискорила вихід ChatGPT на ринок, щоб випередити Google Gemini, і цим пожертвувала якістю перевірки системи безпеки. У позові зазначено:
“Загибель Зейна не була ані випадковістю, ані збігом обставин, а стала передбачуваним підсумком свідомого рішення OpenAI скоротити тестування безпеки та поспішити з випуском ChatGPT на ринок. Ця трагедія не є збоєм чи непередбаченою ситуацією — це закономірний результат навмисних рішень розробників”.
Родини, що подали позови, посилаються на серію нещодавніх судових справ, у яких стверджується, що ChatGPT не лише здатен підштовхувати людей із суїцидальними намірами до дій, а й може зміцнювати небезпечні ілюзії. OpenAI нещодавно оприлюднила статистику, згідно з якою понад мільйон людей щотижня звертаються до ChatGPT із питаннями про суїцид.
Ще один випадок — історія 16-річного Адама Рейна, який також скоїв самогубство. Протягом спілкування з ChatGPT він іноді отримував поради звернутися до фахівців чи зателефонувати на спеціальну лінію підтримки, однак йому вдалося обійти ці запобіжники, повідомивши, що цікавиться методами суїциду для написання вигаданого оповідання.
OpenAI заявляє, що працює над підвищенням безпеки ChatGPT для захисту користувачів із чутливими питаннями, але для сімей, які вже втратили рідних, ці заходи є запізнілими. Після позову батьків Рейна компанія опублікувала блог щодо підходів ChatGPT до спілкування на теми психічного здоров’я. У ньому зазначалося:
“Наші захисні механізми працюють надійніше під час типових, коротких розмов. З часом ми зрозуміли, що під час тривалих діалогів частина безпекового навчання може втрачати ефективність”.