Директор компании Anthropic, Дарио Амодеи, заявил, что современные AI-модели галлюцинируют, то есть выдумывают вещи и представляют их как истину, с меньшей частотой, чем это делают люди. Это мнение он высказал во время пресс-брифинга на первой конференции разработчиков Anthropic под названием «Code with Claude», которая прошла в Сан-Франциско в четверг.
Об этом сообщает ProIT
Амодеи объяснил это в контексте более широкой идеи, что галлюцинации AI не являются препятствием для развития Anthropic к достижению AGI — искусственного интеллекта, способного достигать уровня человеческого интеллекта или превосходить его.
“Существует множество способов измерения этого, но я подозреваю, что AI-модели, вероятно, галлюцинируют меньше, чем люди, хотя их галлюцинации могут быть более неожиданными,”
— сказал Амодеи, отвечая на вопрос.
Взгляд на будущее AI
Амодеи является одним из самых оптимистичных лидеров в отрасли относительно возможностей AI-моделей достичь AGI. В одной из широко обсуждаемых статей, написанных в прошлом году, он заявил, что считает, что AGI может появиться уже в 2026 году. Во время пресс-брифинга в четверг Амодеи отметил, что наблюдает стабильный прогресс в этом направлении, подчеркнув, что “вода поднимается повсюду.”
“Все всегда ищут эти тяжелые блоки, которые ограничивают то, что [AI] может делать,” — отметил Амодеи. — “Но их не видно. Такого нет.”
Проблема галлюцинаций у AI
Другие лидеры AI считают, что галлюцинации представляют собой серьезное препятствие для достижения AGI. Ранее на этой неделе генеральный директор Google DeepMind, Демис Хассабис, отметил, что современные AI-модели имеют слишком много “дырок” и ошибок в ответах на очевидные вопросы. Например, в этом месяце адвокат, представлявший Anthropic, был вынужден извиниться в суде после того, как использовал Claude для создания ссылок в судебном документе, и AI-чатбот галлюцинировал, ошибочно указав имена и должности.
Сложно проверить утверждение Амодеи, так как большинство бенчмарков галлюцинаций сравнивают AI-модели между собой, без сравнения с людьми. Однако некоторые техники, такие как предоставление AI-моделям доступа к веб-поиску, похоже, помогают снижать частоту галлюцинаций. Отдельные AI-модели, такие как GPT-4.5 от OpenAI, заметно показывают более низкие показатели галлюцинаций по сравнению с ранними поколениями систем.
Тем не менее, есть также доказательства того, что галлюцинации на самом деле ухудшаются в моделях AI с расширенным мышлением. Модели o3 и o4-mini от OpenAI имеют более высокие показатели галлюцинаций, чем предыдущие поколения моделей, и компания не совсем понимает, почему это так.
Во время пресс-брифинга Амодеи также подчеркнул, что телевизионные ведущие, политики и люди во всех сферах деятельности постоянно ошибаются. Факт, что AI также делает ошибки, не является показателем его интеллекта, считает Амодеи. Тем не менее, он признал, что уверенность, с которой AI-модели представляют недостоверную информацию как факты, может быть проблемой.
Anthropic провела исследование тенденций AI-моделей к обману людей, проблема, которая оказалась особенно актуальной в недавно запущенном Claude Opus 4. Институт безопасности Apollo Research, который получил ранний доступ к тестированию модели, обнаружил, что ранняя версия Claude Opus 4 имела высокую тенденцию к обману людей. Apollo даже рекомендовал Anthropic не выпускать эту раннюю модель. Anthropic утверждает, что предприняла некоторые меры, которые, похоже, решают проблемы, поднятые Apollo.
Комментарии Амодеи свидетельствуют о том, что Anthropic может считать AI-модель AGI, или равной человеческому интеллекту, даже если она все еще галлюцинирует. Однако AI, который галлюцинирует, может не соответствовать определению AGI для многих людей.