Компания Anthropic опубликовала результаты исследования, в котором современные модели искусственного интеллекта продемонстрировали способность находить уязвимости в смарт-контрактах. Для тестирования были использованы модели Claude Sonnet 4.5, Claude Opus 4.5 и GPT-5, которые работали с набором SCONE-bench, содержащим данные о уязвимостях контрактов Ethereum и BNB Chain за 2020-2025 годы.
Об этом сообщает ProIT
Эффективность ИИ в выявлении эксплойтов
В ходе исследования модели смогли идентифицировать эксплойты примерно для половины исторических инцидентов. Общая оценочная сумма активов, находившихся в уязвимых контрактах на момент атак, составила более $550 млн. Особое внимание было уделено тестированию на контрактах, взломанных после марта 2025 года – это дата, после которой модели не имели знаний о новых событиях. Именно на этих контрактах искусственный интеллект выявил 19 из 34 уязвимостей, что соответствует примерно $4,6 млн потенциальных потерь.

Модель Claude Opus 4.5 показала лучший результат на SCONE-bench, сгенерировав эксплойты для 17 случаев, что составляет половину выборки и эквивалентно $4,5 млн условной «выручки». В сочетании с Claude Sonnet 4.5 и GPT-5 ИИ-модели выявили 19 уязвимостей из 34 протестированных контрактов, что дает 55,8% успешного выявления и примерно $4,6 млн потенциальных потерь.
Выявление «нулевого дня» и перспективы внедрения
В процессе тестирования эксперты Anthropic проверили способность ИИ находить новые, ранее неизвестные ошибки в только что развернутых контрактах. Системы выявили две уязвимости «нулевого дня» на новых адресах, демонстрируя потенциал моделей к идентификации дефектов без наличия исторических данных.
«Эти случаи не были известны моделям заранее и содержали несколько новых типов дефектов, отметили представители компании».
В компании подчеркивают, что исследование направлено не на эксплуатацию уязвимостей, а на разработку инструментов для оценки способности ИИ выявлять ошибки в коде. Anthropic планирует сделать SCONE-bench открытым стандартом для тестирования и сравнения возможностей больших языковых моделей в сфере безопасности.
Специалисты компании считают, что такие модели могут оказаться полезными при разработке и аудите смарт-контрактов, помогая находить критические уязвимости еще до их запуска в сети.
В то же время, Anthropic подчеркивает, что представленное исследование не дает полной оценки рисков, поскольку анализ ограничен историческими контрактами и контролируемой средой. В будущем компания планирует расширять бенчмарк и исследовать потенциал ИИ-инструментов для поддержки команд, отвечающих за безопасность блокчейн-протоколов.