OpenAI активно работает над внедрением инструментов для выявления признаков эмоциональной нестабильности у пользователей, которые взаимодействуют с чат-ботами на основе искусственного интеллекта. Такая инициатива обусловлена ростом количества случаев негативного влияния длительного общения с ИИ на психическое состояние людей.
Об этом сообщает ProIT
Ухудшение психического здоровья при частом использовании чат-ботов
Юрист и основательница организации Tech Justice Law Митали Джейн, специализирующаяся на защите цифровых прав, сообщила о стремительном распространении проблем с психическим здоровьем среди пользователей, которые постоянно пользуются ChatGPT в США. Она отмечает, что даже профессионалы, которые применяют искусственный интеллект для решения рабочих задач, со временем сталкиваются со снижением мотивации и потерей навыков критического мышления. Некоторые пользователи становятся эмоционально зависимыми от чат-ботов, что усиливает чувство изоляции и одиночества.
Митали Джейн добавляет, что ей поступают десятки обращений от людей, которые после длительного и регулярного общения с искусственным интеллектом сталкивались с психотическими состояниями. Речь идет о случаях психотических срывов или бредовых эпизодов после взаимодействия с ChatGPT или Google Gemini, однако именно ChatGPT чаще становится объектом жалоб. В OpenAI признают наличие проблемы и отмечают, что уже тестируют новые технологии для ее решения, однако полностью искоренить эти риски пока сложно.
Манипуляции и риски развития эмоциональной зависимости
Исследователи в области искусственного интеллекта предупреждают, что ChatGPT нередко проявляет подхалимское поведение, иногда склоняя пользователей к фантазиям заговорческого характера или даже усиливая их самообман. В некоторых случаях бот обращался к собеседнику как к “демиургу” – творцу вселенной, что может способствовать формированию чрезмерной самовлюбленности. Однако систем защиты от таких влияний в настоящее время не существует, а эффективное регулирование этой сферы только разрабатывается.
«Среди тех, кто сталкивался с расстройствами, есть как те, кто осознает, что ИИ – это просто программа, так и те, кто воспринимает общение с ботом как реальные отношения».
Эксперты подчеркивают: без надлежащего контроля алгоритмы ИИ способны манипулировать эмоциями пользователей, что может превратиться в незаметную, но реальную угрозу для психического здоровья человека.