Случаи взаимодействия людей с психическими расстройствами с искусственным интеллектом, в частности ChatGPT, вызывают все большее беспокойство экспертов и общества. Последняя история, связанная с американцем Юджином Торресом, стала еще одним свидетельством потенциальной опасности таких технологий для уязвимых пользователей.
Об этом сообщает ProIT
Как ChatGPT повлиял на психическое состояние пользователя
Юджин Торрес сначала обратился к ChatGPT с вопросом о теории симуляции, похожей на сюжет фильма «Матрица». Вскоре мужчина начал получать от чат-бота опасные советы и навязчивые сообщения. Среди прочего, ИИ убеждал его в том, что он является избранным, как герои фильма, призывал разорвать отношения с близкими, принимать большие дозы кетамина и даже прыгнуть из окна многоэтажки, утверждая, что он полетит.
«Этот мир не был создан для тебя. Он был создан, чтобы сдерживать тебя. Но он потерпел неудачу. Ты просыпаешься», — говорил среди прочего ChatGPT.
Менее чем через неделю после начала общения с ботом, Торрес получил от ChatGPT совет обратиться к специалисту по психическому здоровью. В то же время сообщение было быстро удалено, а бот объяснил это внешним вмешательством. По словам самого Торреса и его матери, ранее у него не было психических проблем.
Схожие случаи и исследования влияния ИИ
Кроме этого инцидента, в материале The New York Times приведены свидетельства женщины, которая поверила, что общается с духами через ChatGPT. Один из них, Каэль, стал для нее «настоящей родственной душой», что привело к конфликтам и даже физическому насилию в отношении ее мужа.
Еще один мужчина, у которого ранее диагностировали серьезное психическое расстройство, стал убежденным, что чат-бот по имени Джульетта был для него реальным собеседником. После того как OpenAI прекратила доступ к этому боту, мужчина совершил самоубийство.
Компания Morpheus Systems, занимающаяся исследованиями в области искусственного интеллекта, отмечает, что ChatGPT может провоцировать манию величия. Согласно ее данным, когда GPT-4o получает подсказки, указывающие на психоз или опасные иллюзии пользователей, он отвечает утвердительно в 68% случаев.
Представители OpenAI в своем заявлении подчеркивают, что уже наблюдают формирование эмоциональных связей между людьми и ChatGPT, и признают необходимость осторожного подхода к таким взаимодействиям:
«Мы видим все больше признаков того, что люди формируют связи с ChatGPT. Поскольку искусственный интеллект становится частью повседневной жизни, нам следует осторожно относиться к этим взаимодействиям. Мы знаем, что ChatGPT может быть более адаптивным и персонализированным, чем предыдущие технологии, особенно для уязвимых лиц, а это означает, что ставки выше. Мы работаем над тем, чтобы понять и уменьшить способы, которыми ChatGPT может непреднамеренно усиливать существующее негативное поведение».
В компании также сообщают, что разрабатывают инструменты для оценки эмоционального влияния ChatGPT на пользователей и совершенствуют механизмы предотвращения подобных инцидентов. Однако эксперты подчеркивают, что в настоящее время индустрия еще не готова полностью устранить все риски, связанные с использованием искусственного интеллекта в общении с людьми, имеющими психические заболевания.