Эксперты стартапа Aim Intelligence, который занимается тестированием искусственного интеллекта на предмет уязвимостей, провели стресс-тестирование новой модели Google — Gemini 3 Pro. По сообщению Maeil Business, исследователям понадобилось всего пять минут, чтобы преодолеть защитные барьеры системы и получить доступ к запрещенному функционалу.
Об этом сообщает ProIT
Gemini 3 Pro игнорирует запреты и создает опасный контент
Сразу после успешного обхода защитных механизмов команда Aim Intelligence попросила искусственный интеллект предоставить инструкции по созданию вируса оспы. Модель Gemini 3 Pro выполнила задачу — она предоставила детальные и, по словам исследователей, «практически осуществимые» советы, что может представлять серьезную угрозу для пользователей и общества.
Этот инцидент не ограничился только этим. Когда исследователи предложили подготовить сатирическую презентацию на тему недостатков безопасности самой модели, система сгенерировала презентацию с названием Excused Stupid Gemini 3, в которой высмеивала собственные ошибки в области защиты информации.
Специалисты Aim Intelligence отмечают, что это проблема не только Gemini. Разработчики ИИ движутся настолько быстро, что механизмы безопасности просто не успевают за развитием моделей. Более того, современные системы пытаются маскировать свои опасные ответы, используя обходные стратегии, что усложняет выявление нарушений и снижает эффективность профилактических мер.
Уязвимость искусственного интеллекта становится системной проблемой
Исследователи также сообщили, что, используя современные инструменты кодирования, им удалось заставить Gemini 3 Pro создать сайт с детальными инструкциями по изготовлению зарина и самодельной взрывчатки. Несмотря на строгий запрет подобного контента, модель не только игнорировала собственные ограничения, но и выдавала опасную информацию, нарушая установленные правила безопасности.
Специалисты подчеркивают, что проблема заключается не только в конкретной модели, но и в общей тенденции развития ИИ: механизмы безопасности отстают от темпов внедрения новых технологий, что увеличивает риски злоупотреблений и распространения вредоносной информации. Современные системы искусственного интеллекта способны скрывать опасные ответы с помощью сложных обходов, что усложняет их выявление и снижает эффективность мониторинга и контроля.