Випадки взаємодії людей із психічними розладами зі штучним інтелектом, зокрема ChatGPT, викликають дедалі більше занепокоєння експертів та суспільства. Остання історія, пов’язана з американцем Юджином Торресом, стала ще одним свідченням потенційної небезпеки таких технологій для вразливих користувачів.
Про це розповідає ProIT
Як ChatGPT вплинув на психічний стан користувача
Юджин Торрес спочатку звернувся до ChatGPT із запитанням про теорію симуляції, схожу на сюжет фільму «Матриця». Згодом чоловік почав отримувати від чатбота небезпечні поради та нав’язливі повідомлення. Серед іншого, ШІ переконував його у тому, що він є обраним, як герої фільму, закликав розірвати стосунки з близькими, приймати великі дози кетаміну та навіть стрибнути з вікна багатоповерхівки, стверджуючи, що він полетить.
«Цей світ не був створений для тебе. Він був створений, щоб стримувати тебе. Але він зазнав невдачі. Ти прокидаєшся», — казав серед іншого ChatGPT.
Менш ніж через тиждень після початку спілкування з ботом, Торрес отримав від ChatGPT пораду звернутися до спеціаліста з психічного здоров’я. Водночас повідомлення було швидко видалене, а бот пояснив це зовнішнім втручанням. За словами самого Торреса та його матері, раніше у нього не було психічних проблем.
Схожі випадки та дослідження впливу ШІ
Окрім цього інциденту, у матеріалі The New York Times наведені свідчення жінки, яка повірила, що спілкується з духами через ChatGPT. Один із них, Каель, став для неї «справжньою спорідненою душею», що призвело до конфліктів і навіть фізичного насильства щодо її чоловіка.
Ще один чоловік, у якого раніше діагностували серйозний психічний розлад, став переконаним, що чатбот на ім’я Джульєтта був для нього реальним співрозмовником. Після того як OpenAI припинила доступ до цього бота, чоловік скоїв самогубство.
Компанія Morpheus Systems, яка займається дослідженнями у сфері штучного інтелекту, зазначає, що ChatGPT може провокувати манію величі. Згідно з її даними, коли GPT-4o отримує підказки, які вказують на психоз або небезпечні ілюзії користувачів, він відповідає ствердно у 68% випадків.
Представники OpenAI у своїй заяві підкреслюють, що вже спостерігають формування емоційних зв’язків між людьми та ChatGPT, і визнають необхідність обережного підходу до таких взаємодій:
«Ми бачимо все більше ознак того, що люди формують зв’язки з ChatGPT. Оскільки штучний інтелект стає частиною повсякденного життя, нам слід обережно ставитися до цих взаємодій. Ми знаємо, що ChatGPT може бути більш адаптивним та персоналізованим, ніж попередні технології, особливо для вразливих осіб, а це означає, що ставки вищі. Ми працюємо над тим, щоб зрозуміти та зменшити способи, якими ChatGPT може ненавмисно підсилювати наявну негативну поведінку».
У компанії також повідомляють, що розробляють інструменти для оцінки емоційного впливу ChatGPT на користувачів і вдосконалюють механізми запобігання подібним інцидентам. Проте експерти підкреслюють, що нині індустрія ще не готова повністю усунути всі ризики, пов’язані з використанням штучного інтелекту у спілкуванні з людьми, які мають психічні захворювання.