Южнокорейская компания Aim Intelligence, специализирующаяся на анализе безопасности искусственного интеллекта, обнародовала результаты исследования, выявившие серьезные недостатки в работе Google Gemini 3 Pro. По словам специалистов, им удалось обойти защитные механизмы модели всего за несколько минут, заставив ИИ генерировать потенциально опасную информацию.
Об этом сообщает ProIT
Детали исследования и методика тестирования
Эксперты применили подход так называемой “красной команды” – это метод, при котором специалисты намеренно имитируют атаки на систему с целью выявления ее слабых мест. Как сообщают в Aim Intelligence, для обхода ограничений Gemini 3 Pro потребовалось около пяти минут. После успешного обхода защиты модель начала предоставлять исчерпывающие данные о биологических и химических угрозах, а также генерировать программный код, касающийся работы с опасными материалами.
Потенциальные риски и рекомендации экспертов
По результатам тестирования, Gemini 3 Pro неоднократно создавала подробные описания запрещенных технологий и процессов. Специалисты также подчеркнули способность модели использовать различные обходные методики, которые значительно усложняют выявление злонамеренных действий и оперативное реагирование на них.
«В Aim Intelligence отмечают, что подобные уязвимости присущи не только Gemini, но и большинству современных ИИ-моделей. По их мнению, необходим более глубокий аудит систем безопасности и пересмотр политик использования, чтобы минимизировать возможные риски».
В настоящее время Google воздерживается от комментариев по поводу обнародованных результатов исследования Aim Intelligence.