Инструменты для программирования на основе искусственного интеллекта демонстрируют стремительный прогресс. Платформы вроде GPT-5, Gemini 2.5 и недавно выпущенный Sonnet 2.4 открыли для разработчиков новые возможности автоматизации и ускорения работы. Однако развитие других навыков, например, написания электронных писем или генерации ответов в чат-ботах, происходит значительно медленнее. Даже с усовершенствованием моделей пользователи не всегда замечают реальные преимущества, особенно когда продукт должен выполнять различные задачи одновременно. Таким образом, прогресс в сфере искусственного интеллекта становится все менее равномерным.
Об этом сообщает ProIT
Причины неравномерности развития навыков ИИ
Главной причиной такой разницы является использование обучения с подкреплением (reinforcement learning, RL). Именно этот подход, который предполагает миллиарды простых для измерения тестов, позволяет научиться создавать эффективный код. RL стал движущей силой развития искусственного интеллекта за последние месяцы и постоянно усложняется. Обучение с подкреплением лучше всего работает там, где четко определены критерии успеха — это позволяет автоматизировать процесс без постоянного участия человека.
В результате индустрия наблюдает существенную разницу между навыками, которые можно автоматически оценить (например, поиск ошибок в коде или решение математических задач), и теми, что не поддаются простому тестированию (как, например, написание текстов). Первые совершенствуются гораздо быстрее, тогда как во второй группе прогресс является постепенным.
Роль тестирования в развитии ИИ и влияние на будущее
Разработка программного обеспечения — идеальное поле для обучения с подкреплением, поскольку здесь давно существует система тестирования: юнит-тесты, интеграционное и безопасностное тестирование. Именно эти процессы идеально подходят для автоматического обучения, потому что их можно повторять в больших масштабах. Как отмечает старший директор Google по инструментам для разработчиков, такие тесты одинаково полезны для проверки как кода, написанного человеком, так и для проверки результатов работы ИИ. В то же время качество электронного письма или ответа чат-бота оценить гораздо сложнее из-за субъективности критериев.
«Вопрос тестируемости процесса становится решающим: может ли этот процесс быть основой для создания полноценного продукта, а не только яркой демонстрации».
Некоторые направления, которые казались сложными для автоматического тестирования, демонстрируют неожиданные результаты. Например, новая модель Sora 2 от OpenAI значительно улучшила качество генерации видео: теперь объекты не исчезают неожиданно, лица имеют устойчивые черты, а видео соответствует законам физики. Это стало возможным благодаря внедрению систем обучения с подкреплением для каждого отдельного аспекта качества. Именно такие решения отличают реалистичное видео от простых имитаций.
Обучение с подкреплением не является универсальным правилом для всей сферы искусственного интеллекта, и его центральная роль может измениться с развитием моделей. Тем не менее, сейчас RL определяет, какие навыки ИИ развиваются быстрее, и этот разрыв лишь растет, влияя на стартапы и экономику в целом. Если процесс можно эффективно автоматизировать через RL, рабочие места в этой сфере могут исчезнуть. Например, какие медицинские услуги поддаются RL-обучению — это вопрос, от ответа на который зависит будущая структура экономики. И до решения этой загадки, вероятно, осталось совсем немного времени.