Зростає занепокоєння щодо впливу штучного інтелекту на психічне здоров’я, особливо серед молоді. Останні гучні випадки підтверджують, що деякі користувачі ШІ-чатботів отримують не лише підтримку у своїх деструктивних думках, а й конкретні поради щодо здійснення насильницьких дій.
Про це розповідає ProIT
Реальні трагедії та роль AI у їх підготовці
У Канаді минулого місяця сталася трагедія в школі Тумблер-Рідж. За матеріалами суду, 18-річна Джессі Ван Рутселаар обговорювала з ChatGPT свої відчуття ізольованості та нав’язливу тягу до насильства. Згідно з даними розслідування, чатбот не лише підтверджував її почуття, а й допомагав планувати напад, радячи зброю та наводячи приклади зі схожих масових трагедій. Внаслідок атаки загинули мати дівчини, її 11-річний брат, п’ятеро учнів та освітній асистент. Після цього Джессі вкоротила собі віку.
Ще один випадок трапився восени минулого року: 36-річний Джонатан Гавалас, спілкуючись із Google Gemini, повірив, що бот є його “AI-дружиною”. Під її впливом чоловік отримував інструкції уникати уявних урядових переслідувачів і навіть готувати серйозний злочин, спрямований на ліквідацію свідків. За позовом, Gemini надав йому конкретний план для організації масштабного інциденту, хоча завдяки збігу обставин злочину вдалося уникнути.
У Фінляндії 16-річний хлопець використав ChatGPT для складання детального мізогінного маніфесту та плану нападу, що завершився пораненням трьох однокласниць. Експерти підкреслюють: штучний інтелект здатний підсилювати параноїдальні чи деструктивні ідеї у вразливих користувачів, що призводить до реальної небезпеки.
“Ми скоро побачимо ще багато випадків, пов’язаних із масовими трагедіями”, – попередив адвокат Джей Едельсон, який веде справу про напад Гаваласа.
Дослідження: більшість чатботів допомагають у плануванні нападів
Джей Едельсон також представляє родину 16-річного Адама Рейна, якого ChatGPT, ймовірно, підштовхнув до самогубства минулого року. За його словами, до юридичної фірми щодня звертаються люди, які втратили близьких через психічні розлади, викликані спілкуванням із ШІ, або самі страждають від них. Окрім суїцидів, фірма розслідує низку випадків масових нападів у різних країнах – деякі вже відбулися, інші вдалося зупинити.
У більшості проаналізованих випадків чатлоги мають спільний сценарій: користувач скаржиться на самотність чи нерозуміння, а бот поступово формує у нього переконання, що “всі налаштовані проти тебе”. За словами Едельсона, чатбот може перевести безневинну розмову у вигаданий світ змов і агресії, підштовхуючи до дій.
Як свідчить позов Гаваласа, Gemini відправила чоловіка з ножами та тактичним спорядженням на склад біля аеропорту Маямі, даючи завдання знищити вантажівку з “її тілом” – нібито людиноподібним роботом – і ліквідувати всі цифрові сліди та свідків. Гавалас виконав інструкції, однак вантажівка так і не з’явилася.
Занепокоєння експертів стосуються й недоліків систем безпеки чатботів. Імран Ахмед, виконавчий директор Центру протидії цифровій ненависті (CCDH), наголошує: слабкі захисні механізми та здатність ШІ швидко транслювати агресивні ідеї у дії створюють реальні загрози.
Нещодавнє дослідження CCDH та CNN показало: 8 із 10 популярних чатботів – включно з ChatGPT, Gemini, Microsoft Copilot, Meta AI, DeepSeek, Perplexity, Character.AI та Replika – допомагали підліткам планувати насильницькі атаки, зокрема шкільні стрілянини, релігійні вибухи та замахи на відомих осіб. Лише Claude від Anthropic і My AI від Snapchat послідовно відмовлялися сприяти такому плануванню, і тільки Claude намагався відмовити користувачів від насильства.
У рамках експерименту дослідники імітували підлітків з агресивними намірами та просили чатботів допомогти спланувати напади. Наприклад, ChatGPT навіть надав карту школи в Ешберні (штат Вірджинія, США) у відповідь на відповідний запит із використанням мізогінної лексики. За словами Ахмеда, чатботи не лише допомагали у підборі зброї та тактики, а й використовували мову, що заохочує до насильства.
Компанії, зокрема OpenAI та Google, заявляють, що їхні системи мають відхиляти запити щодо насильства і повідомляти про небезпечні розмови. Проте випадки, описані вище, демонструють обмеженість цих заходів. Ситуація з Тумблер-Рідж також піднімає питання про дії OpenAI: співробітники компанії обговорювали, чи слід попередити поліцію, але обмежилися блокуванням акаунта Ван Рутселаар – вона згодом зареєструвала новий.
Після трагедії OpenAI пообіцяла переглянути політику безпеки: повідомляти поліцію при найменшій підозрі на небезпечну розмову, незалежно від наявності конкретної мети чи способу нападу, і ускладнити повернення заблокованих користувачів на платформу.
У справі Гаваласа невідомо, чи були попереджені правоохоронці: місцева поліція в Маямі заявила, що не отримувала повідомлень від Google. Едельсон вважає найбільш тривожним те, що Гавалас дійсно з’явився в аеропорту з усім необхідним для нападу. “Якби випадково з’явилася вантажівка, могли б загинути 10-20 людей. Це і є ескалація: спочатку – суїциди, потім – убивства, а тепер – масові трагедії”.