Компания OpenAI опубликовала новые статистические данные, которые свидетельствуют о значительном количестве пользователей ChatGPT, обращающихся к искусственному интеллекту с вопросами, связанными с психическим здоровьем. По подсчетам компании, 0,15% активных пользователей еженедельно ведут разговоры, в которых фигурируют явные признаки возможного суицидального планирования или намерений. Учитывая более 800 миллионов еженедельных активных пользователей, это означает более миллиона таких случаев каждую неделю.
Об этом сообщает ProIT
Статистика психологических обращений и новые механизмы безопасности
Кроме того, OpenAI информирует, что подобный процент пользователей демонстрирует «повышенный уровень эмоциональной привязанности» к ChatGPT, а сотни тысяч людей еженедельно показывают признаки психоза или мании во время общения с чат-ботом. Такие разговоры компания описывает как «крайне редкие», но одновременно признает, что проблема касается сотен тысяч людей каждую неделю.
Новые данные были опубликованы на фоне анонса улучшений в реагировании моделей OpenAI на обращения пользователей с психическими расстройствами. Компания сообщила, что во время работы над последней версией ChatGPT в процесс были вовлечены более 170 специалистов в области психического здоровья. По их наблюдениям, обновленная версия ChatGPT «отвечает более уместно и последовательно, чем предыдущие».
«OpenAI утверждает, что обновленная версия GPT-5 выдает “желательные ответы” на вопросы о психическом здоровье примерно на 65% чаще, чем предыдущая версия. По результатам оценки ответов ИИ на суицидальные темы, GPT-5 придерживается желаемой модели поведения в 91% случаев, по сравнению с 77% у предшественника».
Вызовы, риски и дополнительные меры защиты
Среди актуальных угроз компания выделяет рост числа сообщений о негативном влиянии чат-ботов с искусственным интеллектом на людей с психическими трудностями. Исследователи фиксируют, что такие системы могут усиливать ложные убеждения пользователей, подталкивая к деструктивным сценариям.
Вопрос безопасности выходит на передний план для OpenAI, в частности после иска родителей 16-летнего подростка, который делился с ChatGPT своими суицидальными мыслями незадолго до своей смерти. Генеральные прокуроры Калифорнии и Делавэра подчеркивают необходимость защиты молодежи от потенциальных рисков использования таких технологий, что может повлиять на планы реструктуризации компании.
В октябре генеральный директор OpenAI Сэм Альтман заявил, что компания смогла «смягчить серьезные проблемы с психическим здоровьем» в ChatGPT, хотя конкретных деталей не предоставил. В то же время он сообщил о смягчении некоторых ограничений, в частности относительно возможности для взрослых пользователей вести эротические беседы с чат-ботом.
Среди новых мер — внедрение дополнительных оценок для анализа самых серьезных психологических вызовов, которые возникают во время использования ChatGPT. Теперь базовые тесты безопасности для моделей ИИ будут включать проверку на эмоциональную зависимость и несуицидальные психические кризисы. OpenAI также представила улучшенные родительские контроли и систему распознавания возраста для автоматического выявления детей, использующих сервис, с последующим применением более строгих мер безопасности.
Несмотря на усовершенствования, компания признает, что вопрос психического здоровья среди пользователей ChatGPT остается сложным и требует дальнейшего внимания. Хотя GPT-5 демонстрирует лучшие показатели безопасности по сравнению с предшественниками, определенная часть ответов бота все еще классифицируется как нежелательная. При этом OpenAI продолжает предоставлять доступ к старым и менее защищенным моделям, таким как GPT-4o, миллионам платных подписчиков.