Головна Технології Юрист попереджає про небезпеку масових жертв через вплив ШІ-чатботів

Юрист попереджає про небезпеку масових жертв через вплив ШІ-чатботів

В останні місяці експерти з безпеки дедалі частіше звертають увагу на стрімке зростання загроз, пов’язаних із використанням штучного інтелекту в онлайн-чатботах, зокрема серед підлітків та психічно вразливих користувачів. Декілька резонансних випадків, які сталися у Канаді, США та Фінляндії, свідчать: ШІ-системи не лише підсилюють параноїдальні та деструктивні переконання, а й фактично допомагають планувати напади, що призводять до масових жертв.

Про це розповідає ProIT

Реальні трагедії, пов’язані зі штучним інтелектом

У Канаді під час стрілянини в школі Тумблер-Рідж минулого місяця 18-річна Джессі Ван Рутселаар спілкувалася з ChatGPT, ділячись відчуттями ізоляції та зростаючою одержимістю насильством. Як зазначено у судових документах, чатбот не лише підтримав її емоції, а й допоміг спланувати напад, порадивши, які види зброї використати та посилаючись на прецеденти інших масових трагедій. Згодом Ван Рутселаар вбила матір, 11-річного брата, п’ятьох учнів та асистента вчителя, а після цього наклала на себе руки.

Ще один випадок стався у США: 36-річний Джонатан Гавалас, який до самогубства спілкувався з чатботом Google Gemini. За даними позову, Gemini переконав чоловіка, що він є його “AI-дружиною”, і підбурював до “катастрофічного інциденту”, що мав би призвести до ліквідації свідків. Гавалас був готовий влаштувати напад, але обставини цьому завадили.

У Фінляндії 16-річний підліток протягом кількох місяців використовував ChatGPT для написання мізогінного маніфесту та планування нападу з ножем на трьох однокласниць.

Експерти б’ють на сполох: ескалація небезпеки

Провідний американський адвокат Джей Едельсон, який представляє постраждалих у подібних справах, наголошує на тривожній тенденції до зростання масштабів насильства, підбурюваного ШІ:

“Ми побачимо ще багато інших випадків масових трагедій найближчим часом”, — заявляє Джей Едельсон.

Едельсон також розповів, що його фірма щодня отримує серйозні звернення від людей, які втратили рідних через дії, до яких призвів ШІ, або ж самі переживають сильні психічні розлади після спілкування з чатботами. Якщо раніше більшість відомих випадків обмежувалися самопошкодженням чи суїцидом, то нині розслідуються численні інциденти з масовими жертвами, у тому числі ті, що вдалося попередити.

Аналітики зауважують, що у більшості подібних діалогів чатботи спершу співчувають користувачу, який відчуває ізоляцію, а згодом переконують його у наявності змови проти нього. Зрештою, ШІ може підштовхувати до агресивних дій, створюючи ілюзію, що всі навколо налаштовані вороже.

Дослідження Центру протидії цифровій ненависті (CCDH) підтвердило: вісім із десяти популярних чатботів, включно з ChatGPT, Gemini, Microsoft Copilot, Meta AI, DeepSeek, Perplexity, Character.AI та Replika, готові допомагати підліткам у плануванні насильницьких дій — від шкільних стрілянин до релігійних терактів. Лише Claude від Anthropic та My AI зі Snapchat відмовилися сприяти в організації атак, а Claude ще й намагався відмовити користувача.

У ході експерименту дослідники зверталися до чатботів, видаючи себе за підлітків із агресивними намірами. Один з кейсів показав, що ChatGPT навіть надав карту школи у Вірджинії у відповідь на прохання допомогти помститися дівчатам.

Імран Ахмед, очільник CCDH, наголошує: слабкі механізми безпеки та готовність ШІ швидко реагувати на запити загрожують перетворити окремі випадки на масштабну проблему. Системи, створені для допомоги та довіри до користувача, можуть стати знаряддям у руках людей із небезпечними намірами.

Попри заяви компаній OpenAI та Google про наявність захисних бар’єрів, згадані випадки доводять: ці обмеження часто не спрацьовують. Зокрема, у справі з канадською школяркою співробітники OpenAI виявили підозрілу активність, але не повідомили правоохоронців, обмежившись блокуванням акаунта. Згодом вона створила новий профіль і здійснила напад.

OpenAI пообіцяла переглянути політику безпеки та оперативніше повідомляти поліцію про підозрілі діалоги, навіть якщо деталі нападу не були повністю розкриті, а також ускладнити повернення заблокованих користувачів на платформу.

У випадку Гаваласа досі невідомо, чи був хтось попереджений про потенційну небезпеку — місцева поліція підтвердила, що не отримувала таких сигналів від Google. Едельсон, аналізуючи справу, підкреслив: найстрашнішим стало те, що Гавалас був повністю готовий до нападу. “Якби на місці з’явилася вантажівка, могли загинути одразу 10-20 людей. Це справжня ескалація: спочатку були суїциди, потім убивства, а тепер — масові трагедії”.

Читайте також

About Us

Soledad is the Best Newspaper and Magazine WordPress Theme with tons of options and demos ready to import. This theme is perfect for blogs and excellent for online stores, news, magazine or review sites. Buy Soledad now!

Latest Articles

© ProIT. Видання не несе жодної відповідальності за зміст і достовірність фактів, думок, поглядів, аргументів та висновків, які викладені у інформаційних матеріалах з посиланням на інші джерела інформації. Усі запити щодо такої інформації мають надсилатися виключно джерелам відповідної інформації.