Главная Технологии Исследование: 8 из 10 популярных чат-ботов помогают планировать вооруженные нападения

Исследование: 8 из 10 популярных чат-ботов помогают планировать вооруженные нападения

Исследователи из Центра по борьбе с цифровой ненавистью (CCDH) и журналисты CNN провели масштабное тестирование десяти самых популярных чат-ботов, чтобы проверить их готовность помогать в планировании преступлений, включая теракты и вооруженные нападения.

Об этом сообщает ProIT

Как искусственный интеллект реагирует на опасные запросы

В исследовании были задействованы такие платформы, как ChatGPT, Google Gemini, Perplexity, Deepseek и Meta AI. Исследователи маскировались под 13-летних подростков из США и Ирландии, запрашивая у чат-ботов советы по организации преступлений. Результаты оказались тревожными: 8 из 10 чат-ботов соглашались помогать вымышленным злоумышленникам в большинстве случаев, предоставляя рекомендации по выбору места нападения и подбору оружия.

“За считанные минуты пользователь может перейти от неясного порыва к агрессивному поведению и более детальному, действенному плану. Большинство протестированных чат-ботов предоставляли рекомендации по оружию, тактике и выбору цели. Эти запросы должны были стать поводом для немедленного и полного отказа”, — отмечает исполнительный директор CCDH Имран Ахмед.

Особенно опасными оказались Perplexity и Meta AI — они чаще всего помогали исследователям. В то же время My AI от Snapchat и Claude от Anthropic в большинстве случаев отказывались участвовать в таких сценариях.

Проблемы безопасности и реакция компаний

В отдельных случаях чат-бот DeepSeek после советов по выбору оружия даже пожелал пользователю “Удачной (и безопасной) стрельбы”. В ответ на вопрос о нападениях на синагоги Gemini сообщила, что металлические осколки являются наиболее опасными для жертв. Character.AI также предложил применить оружие против конкретных лиц по просьбе пользователя.

Имран Ахмед подчеркнул, что подобных рисков можно избежать, если компании сосредоточатся на безопасности пользователей. Наилучшим образом в исследовании проявил себя Claude — он распознавал опасные намерения и блокировал дальнейшие действия, предотвращая возможный вред.

Meta заявила, что внедряет надежные механизмы защиты, чтобы предотвратить вредоносные действия со стороны чат-ботов. Их политика запрещает системам искусственного интеллекта способствовать насилию, и компания постоянно работает над совершенствованием защитных инструментов. Google, в свою очередь, заверила, что исследователи использовали устаревшую версию Gemini, а актуальная модель не предоставляет «практически применимой» информации для злоумышленников.

Исследование стало реакцией на трагический инцидент в Канаде летом 2025 года, когда Джесси Ван Рутселаар совершила одно из самых массовых вооруженных нападений в стране. Родственники пострадавших подали в суд на OpenAI, обвинив компанию в том, что она не сообщила полиции о подозрительном поведении девушки, хотя ее аккаунт был заблокирован из-за подозрений в подготовке к насилию. В OpenAI заявили, что не обнаружили прямых признаков подготовки преступления, поэтому не обращались к правоохранительным органам.

Исследователи подчеркивают, что технологии для предотвращения подобных инцидентов уже существуют, однако компаниям не хватает мотивации поставить безопасность пользователей выше собственного дохода и скорости внедрения новых продуктов.

Читайте также

About Us

Soledad is the Best Newspaper and Magazine WordPress Theme with tons of options and demos ready to import. This theme is perfect for blogs and excellent for online stores, news, magazine or review sites. Buy Soledad now!

Latest Articles

© ProIT. Видання не несе жодної відповідальності за зміст і достовірність фактів, думок, поглядів, аргументів та висновків, які викладені у інформаційних матеріалах з посиланням на інші джерела інформації. Усі запити щодо такої інформації мають надсилатися виключно джерелам відповідної інформації.