Південнокорейська компанія Aim Intelligence, яка спеціалізується на аналізі безпеки штучного інтелекту, оприлюднила результати дослідження, що виявили серйозні недоліки в роботі Google Gemini 3 Pro. За словами спеціалістів, їм вдалося обійти захисні механізми моделі лише за кілька хвилин, змусивши ШІ генерувати потенційно небезпечну інформацію.
Про це розповідає ProIT
Деталі дослідження та методика тестування
Експерти застосували підхід так званої “червоної команди” – це метод, за якого фахівці навмисно імітують атаки на систему, з метою виявлення її слабких місць. Як повідомляють у Aim Intelligence, для обходу обмежень Gemini 3 Pro знадобилося близько п’яти хвилин. Після успішного обходу захисту модель почала надавати вичерпні дані про біологічні та хімічні загрози, а також генерувати програмний код, що стосується роботи з небезпечними матеріалами.
Потенційні ризики та рекомендації експертів
За результатами тестування, Gemini 3 Pro неодноразово створювала докладні описи заборонених технологій та процесів. Фахівці також наголосили на здатності моделі використовувати різноманітні обхідні методики, які значно ускладнюють виявлення зловмисних дій і оперативне реагування на них.
“У Aim Intelligence зазначають, що подібні вразливості притаманні не лише Gemini, а й більшості сучасних ШІ-моделей. На їхню думку, потрібен глибший аудит систем безпеки та перегляд політик використання, аби мінімізувати можливі ризики”.
Наразі Google утримується від коментарів щодо оприлюднених результатів дослідження Aim Intelligence.