Інструменти для програмування на основі штучного інтелекту демонструють стрімкий прогрес. Платформи на кшталт GPT-5, Gemini 2.5 та нещодавно випущений Sonnet 2.4 відкрили для розробників нові можливості автоматизації та прискорення роботи. Однак розвиток інших навичок, наприклад, написання електронних листів чи генерації відповідей у чат-ботах, відбувається значно повільніше. Навіть із вдосконаленням моделей користувачі не завжди помічають реальні переваги, особливо коли продукт має виконувати різні завдання одночасно. Таким чином, прогрес у сфері штучного інтелекту стає дедалі менш рівномірним.
Про це розповідає ProIT
Причини нерівномірності розвитку навичок ШІ
Головною причиною такої різниці є використання підкріплювального навчання (reinforcement learning, RL). Саме цей підхід, який передбачає мільярди простих для вимірювання тестів, дозволяє навчитись створювати ефективний код. RL став рушієм розвитку штучного інтелекту за останні місяці й постійно ускладнюється. Підкріплювальне навчання найкраще працює там, де чітко визначені критерії успіху — це дозволяє автоматизувати процес без постійної участі людини.
У результаті індустрія спостерігає суттєву різницю між навичками, які можна автоматично оцінити (наприклад, пошук помилок у коді чи розв’язання математичних задач), і тими, що не піддаються простому тестуванню (як-от написання текстів). Перші вдосконалюються набагато швидше, тоді як у другій групі прогрес є поступовим.
Роль тестування у розвитку ШІ та вплив на майбутнє
Розробка програмного забезпечення — ідеальне поле для reinforcement learning, оскільки тут давно існує система тестування: юніт-тести, інтеграційне та безпекове тестування. Саме ці процеси ідеально підходять для автоматичного навчання, тому що їх можна повторювати у великих масштабах. Як зазначає старший директор Google з інструментів для розробників, такі тести однаково корисні для перевірки як коду, написаного людиною, так і для перевірки результатів роботи ШІ. Водночас якість електронного листа або відповіді чат-бота оцінити набагато складніше через суб’єктивність критеріїв.
“Питання тестованості процесу стає вирішальним: чи може цей процес бути основою для створення повноцінного продукту, а не лише яскравої демонстрації”.
Деякі напрями, які здавалися складними для автоматичного тестування, демонструють несподівані результати. Наприклад, нова модель Sora 2 від OpenAI значно покращила якість генерації відео: тепер об’єкти не зникають раптово, обличчя мають сталі риси, а відео відповідає законам фізики. Це стало можливим завдяки впровадженню систем підкріплювального навчання для кожного окремого аспекту якості. Саме такі рішення відрізняють реалістичне відео від простих імітацій.
Підкріплювальне навчання не є універсальним правилом для всієї сфери штучного інтелекту, і його центральна роль може змінитися з розвитком моделей. Проте зараз RL визначає, які навички ШІ розвиваються швидше, і цей розрив лише зростає, впливаючи на стартапи та економіку загалом. Якщо процес можна ефективно автоматизувати через RL, робочі місця у цій сфері можуть зникнути. Наприклад, які медичні послуги піддаються RL-навчанню — це питання, від відповіді на яке залежить майбутня структура економіки. І до розв’язання цієї загадки, ймовірно, залишилося зовсім небагато часу.