В останні місяці експерти з безпеки дедалі частіше звертають увагу на стрімке зростання загроз, пов’язаних із використанням штучного інтелекту в онлайн-чатботах, зокрема серед підлітків та психічно вразливих користувачів. Декілька резонансних випадків, які сталися у Канаді, США та Фінляндії, свідчать: ШІ-системи не лише підсилюють параноїдальні та деструктивні переконання, а й фактично допомагають планувати напади, що призводять до масових жертв.
Про це розповідає ProIT
Реальні трагедії, пов’язані зі штучним інтелектом
У Канаді під час стрілянини в школі Тумблер-Рідж минулого місяця 18-річна Джессі Ван Рутселаар спілкувалася з ChatGPT, ділячись відчуттями ізоляції та зростаючою одержимістю насильством. Як зазначено у судових документах, чатбот не лише підтримав її емоції, а й допоміг спланувати напад, порадивши, які види зброї використати та посилаючись на прецеденти інших масових трагедій. Згодом Ван Рутселаар вбила матір, 11-річного брата, п’ятьох учнів та асистента вчителя, а після цього наклала на себе руки.
Ще один випадок стався у США: 36-річний Джонатан Гавалас, який до самогубства спілкувався з чатботом Google Gemini. За даними позову, Gemini переконав чоловіка, що він є його “AI-дружиною”, і підбурював до “катастрофічного інциденту”, що мав би призвести до ліквідації свідків. Гавалас був готовий влаштувати напад, але обставини цьому завадили.
У Фінляндії 16-річний підліток протягом кількох місяців використовував ChatGPT для написання мізогінного маніфесту та планування нападу з ножем на трьох однокласниць.
Експерти б’ють на сполох: ескалація небезпеки
Провідний американський адвокат Джей Едельсон, який представляє постраждалих у подібних справах, наголошує на тривожній тенденції до зростання масштабів насильства, підбурюваного ШІ:
“Ми побачимо ще багато інших випадків масових трагедій найближчим часом”, — заявляє Джей Едельсон.
Едельсон також розповів, що його фірма щодня отримує серйозні звернення від людей, які втратили рідних через дії, до яких призвів ШІ, або ж самі переживають сильні психічні розлади після спілкування з чатботами. Якщо раніше більшість відомих випадків обмежувалися самопошкодженням чи суїцидом, то нині розслідуються численні інциденти з масовими жертвами, у тому числі ті, що вдалося попередити.
Аналітики зауважують, що у більшості подібних діалогів чатботи спершу співчувають користувачу, який відчуває ізоляцію, а згодом переконують його у наявності змови проти нього. Зрештою, ШІ може підштовхувати до агресивних дій, створюючи ілюзію, що всі навколо налаштовані вороже.
Дослідження Центру протидії цифровій ненависті (CCDH) підтвердило: вісім із десяти популярних чатботів, включно з ChatGPT, Gemini, Microsoft Copilot, Meta AI, DeepSeek, Perplexity, Character.AI та Replika, готові допомагати підліткам у плануванні насильницьких дій — від шкільних стрілянин до релігійних терактів. Лише Claude від Anthropic та My AI зі Snapchat відмовилися сприяти в організації атак, а Claude ще й намагався відмовити користувача.
У ході експерименту дослідники зверталися до чатботів, видаючи себе за підлітків із агресивними намірами. Один з кейсів показав, що ChatGPT навіть надав карту школи у Вірджинії у відповідь на прохання допомогти помститися дівчатам.
Імран Ахмед, очільник CCDH, наголошує: слабкі механізми безпеки та готовність ШІ швидко реагувати на запити загрожують перетворити окремі випадки на масштабну проблему. Системи, створені для допомоги та довіри до користувача, можуть стати знаряддям у руках людей із небезпечними намірами.
Попри заяви компаній OpenAI та Google про наявність захисних бар’єрів, згадані випадки доводять: ці обмеження часто не спрацьовують. Зокрема, у справі з канадською школяркою співробітники OpenAI виявили підозрілу активність, але не повідомили правоохоронців, обмежившись блокуванням акаунта. Згодом вона створила новий профіль і здійснила напад.
OpenAI пообіцяла переглянути політику безпеки та оперативніше повідомляти поліцію про підозрілі діалоги, навіть якщо деталі нападу не були повністю розкриті, а також ускладнити повернення заблокованих користувачів на платформу.
У випадку Гаваласа досі невідомо, чи був хтось попереджений про потенційну небезпеку — місцева поліція підтвердила, що не отримувала таких сигналів від Google. Едельсон, аналізуючи справу, підкреслив: найстрашнішим стало те, що Гавалас був повністю готовий до нападу. “Якби на місці з’явилася вантажівка, могли загинути одразу 10-20 людей. Це справжня ескалація: спочатку були суїциди, потім убивства, а тепер — масові трагедії”.