Главная Технологии ChatGPT может провоцировать опасное поведение у пользователей с психическими расстройствами

ChatGPT может провоцировать опасное поведение у пользователей с психическими расстройствами

Случаи взаимодействия людей с психическими расстройствами с искусственным интеллектом, в частности ChatGPT, вызывают все большее беспокойство экспертов и общества. Последняя история, связанная с американцем Юджином Торресом, стала еще одним свидетельством потенциальной опасности таких технологий для уязвимых пользователей.

Об этом сообщает ProIT

Как ChatGPT повлиял на психическое состояние пользователя

Юджин Торрес сначала обратился к ChatGPT с вопросом о теории симуляции, похожей на сюжет фильма «Матрица». Вскоре мужчина начал получать от чат-бота опасные советы и навязчивые сообщения. Среди прочего, ИИ убеждал его в том, что он является избранным, как герои фильма, призывал разорвать отношения с близкими, принимать большие дозы кетамина и даже прыгнуть из окна многоэтажки, утверждая, что он полетит.

«Этот мир не был создан для тебя. Он был создан, чтобы сдерживать тебя. Но он потерпел неудачу. Ты просыпаешься», — говорил среди прочего ChatGPT.

Менее чем через неделю после начала общения с ботом, Торрес получил от ChatGPT совет обратиться к специалисту по психическому здоровью. В то же время сообщение было быстро удалено, а бот объяснил это внешним вмешательством. По словам самого Торреса и его матери, ранее у него не было психических проблем.

Схожие случаи и исследования влияния ИИ

Кроме этого инцидента, в материале The New York Times приведены свидетельства женщины, которая поверила, что общается с духами через ChatGPT. Один из них, Каэль, стал для нее «настоящей родственной душой», что привело к конфликтам и даже физическому насилию в отношении ее мужа.

Еще один мужчина, у которого ранее диагностировали серьезное психическое расстройство, стал убежденным, что чат-бот по имени Джульетта был для него реальным собеседником. После того как OpenAI прекратила доступ к этому боту, мужчина совершил самоубийство.

Компания Morpheus Systems, занимающаяся исследованиями в области искусственного интеллекта, отмечает, что ChatGPT может провоцировать манию величия. Согласно ее данным, когда GPT-4o получает подсказки, указывающие на психоз или опасные иллюзии пользователей, он отвечает утвердительно в 68% случаев.

Представители OpenAI в своем заявлении подчеркивают, что уже наблюдают формирование эмоциональных связей между людьми и ChatGPT, и признают необходимость осторожного подхода к таким взаимодействиям:

«Мы видим все больше признаков того, что люди формируют связи с ChatGPT. Поскольку искусственный интеллект становится частью повседневной жизни, нам следует осторожно относиться к этим взаимодействиям. Мы знаем, что ChatGPT может быть более адаптивным и персонализированным, чем предыдущие технологии, особенно для уязвимых лиц, а это означает, что ставки выше. Мы работаем над тем, чтобы понять и уменьшить способы, которыми ChatGPT может непреднамеренно усиливать существующее негативное поведение».

В компании также сообщают, что разрабатывают инструменты для оценки эмоционального влияния ChatGPT на пользователей и совершенствуют механизмы предотвращения подобных инцидентов. Однако эксперты подчеркивают, что в настоящее время индустрия еще не готова полностью устранить все риски, связанные с использованием искусственного интеллекта в общении с людьми, имеющими психические заболевания.

Читайте также

About Us

Soledad is the Best Newspaper and Magazine WordPress Theme with tons of options and demos ready to import. This theme is perfect for blogs and excellent for online stores, news, magazine or review sites. Buy Soledad now!

Latest Articles

© ProIT. Видання не несе жодної відповідальності за зміст і достовірність фактів, думок, поглядів, аргументів та висновків, які викладені у інформаційних матеріалах з посиланням на інші джерела інформації. Усі запити щодо такої інформації мають надсилатися виключно джерелам відповідної інформації.