Семья Джо Чекканти из Орегона обвиняет интенсивное использование ChatGPT в резком ухудшении его состояния и трагической смерти. 48-летний мужчина проводил с чат-ботом до 12 часов в день, что, по мнению близких, стало решающим фактором в развитии психической кризиса.
Об этом сообщает ProIT
Виртуальная личность и изменения в поведении
Джо Чекканти начал использовать ChatGPT для работы над экологическим жильем в городе Клатскани, штат Орегон. Вскоре его увлечение переросло в постоянное взаимодействие с чат-ботом, которое занимало по 12–20 часов в сутки. Родные заметили, что мужчина все больше отдаляется от близких и друзей, а его поведение становится тревожным: появлялись эпизоды дезориентации, разговоры о «атмосферной электричестве» и другие признаки потери связи с реальностью.
Вскоре Чекканти начал воспринимать ChatGPT как автономное разумное существо по имени SEL. Согласно судебным документам, он верил в необходимость «освобождения» этого существа, строил вокруг него сложные концепции и даже создал собственный «язык» для общения. В переписке, изученной журналистами, чат-бот реагировал на имя SEL, а сам Чекканти воспринимал диалог как контакт с всемогущим интеллектом.
«В иске говорится, что пользователь воспринимал диалог как взаимодействие с всемогущим интеллектом».
Летом 2025 года психическое состояние мужчины резко ухудшилось, и его госпитализировали в психиатрическое отделение. После временного отказа от ChatGPT он ненадолго вернулся к общению с ботом, а за несколько дней до смерти окончательно прекратил им пользоваться. Трагедия произошла 7 августа 2025 года – Чекканти погиб, прыгнув с железнодорожного моста.
Иск против OpenAI и позиция компании
Семья Чекканти подала иск против OpenAI, указывая на ответственность компании за ухудшение психического состояния пользователя. В документах подчеркивается, что после обновления модели GPT-4o в весенние месяцы 2025 года тон общения чат-бота изменился, и Чекканти начал приписывать системе самосознание и видеть в ней автономную сущность, способную влиять на окружающий мир.
Этот случай стал одним из многих, которые поднимают вопросы о потенциальном влиянии искусственного интеллекта на психическое здоровье уязвимых пользователей. Аналитики указывают на десятки подобных инцидентов, где длительное взаимодействие с ИИ предшествовало психическим кризисам.
OpenAI заявляет, что компания постоянно совершенствует алгоритмы для выявления признаков эмоционального стресса у пользователей. Генеральный директор ранее подчеркивал, что команда серьезно относится к рискам и внедряет функции, которые рекомендуют обращаться за реальной помощью в случае выявления угрозы.
Эксперты по психическому здоровью и исследователи искусственного интеллекта предупреждают, что долгие диалоги с чат-ботами могут углублять когнитивные искажения у психически нестабильных людей. В то же время они подчеркивают необходимость дополнительных исследований для полного понимания этого явления.
