Світові AI-лабораторії змагаються у зведенні гігантських дата-центрів, вартість яких сягає мільярдів доларів, а енергоспоживання — рівня невеликого міста. Ці інвестиції підживлюються вірою у масштабування: переконанням, що збільшення обчислювальних потужностей для навчання штучного інтелекту забезпечить створення надінтелектуальних систем, здатних виконувати найрізноманітніші завдання.
Про це розповідає ProIT
Обмеження масштабування та новий підхід Adaption Labs
Однак дедалі більше дослідників штучного інтелекту вважають, що масштабування великих мовних моделей (LLM) може досягати межі ефективності, і для подальшого розвитку потрібні інші інновації. Саме цим шляхом вирішила піти Сара Хукер, колишня віцепрезидентка з AI-досліджень у Cohere та випускниця Google Brain. У жовтні вона оголосила про створення стартапу Adaption Labs разом із Судіпом Роєм, ще одним ветераном Cohere та Google. Головна ідея — вихід за межі традиційного масштабування, оскільки воно вже не забезпечує відчутного приросту ефективності моделей.
“Я розпочинаю новий проєкт. Працюю над тим, що вважаю найважливішою проблемою: створенням мислячих машин, які здатні пристосовуватися й постійно навчатися. У нас справді потужна команда засновників і ми шукаємо інженерів, фахівців з операцій та дизайнерів. Приєднуйтеся до нас”, — написала Сара Хукер у Twitter у жовтні 2025 року.
За словами Хукер, Adaption Labs працює над AI-системами, які можуть навчатися та змінюватися, спираючись на реальний досвід, і робити це вкрай ефективно. Вона не розкрила деталей алгоритмів чи архітектури стартапу, але наголосила, що просте масштабування LLM вже не дає інтелекту, здатного взаємодіяти зі світом.
Адаптація як основа навчання AI
Хукер підкреслює: адаптація — це «серце навчання». Наприклад, якщо людина вдариться об стіл, вона наступного разу буде обережнішою. AI-лабораторії намагаються відтворити цю здатність через підкріплене навчання (RL), коли моделі вчаться на помилках у контрольованих умовах. Але нинішні RL-методи не дозволяють впровадженим системам навчатися на помилках у реальному часі — вони повторюють ті самі помилки.
Деякі лабораторії надають послуги з донавчання моделей під потреби підприємств, але це коштує чималих грошей. Наприклад, OpenAI вимагає від клієнтів витратити понад $10 млн для отримання таких консультацій.
«Лише кілька провідних лабораторій визначають набір моделей AI, які однаково пропонуються всім, і їх дуже дорого адаптувати. Насправді, я вважаю, що це вже не має бути так, і AI-системи можуть ефективно навчатися у власному середовищі. Доведення цього може змінити те, хто контролює і формує штучний інтелект, і кому в підсумку ці моделі служать», — впевнена Хукер.
Adaption Labs — свідчення того, що віра індустрії у нескінченне масштабування LLM похитнулася. Дослідники MIT нещодавно застерегли: найбільші моделі AI можуть невдовзі зіткнутися зі зменшенням віддачі від масштабування. Цю тенденцію підтримують і відомі експерти. Так, лауреат премії Тюрінга Річард Саттон, якого вважають «батьком RL», зазначив, що LLM не здатні по-справжньому зростати, оскільки не навчаються на реальному досвіді.
У 2024 році з’явилися перші серйозні побоювання, що попереднє навчання моделей на великих датасетах досягає меж. Цей підхід довгий час залишався секретною зброєю OpenAI та Google. Тепер же дані підтверджують ці занепокоєння, хоча в 2025 році з’явилися прориви в галузі моделей AI для розв’язання задач, які потребують більше часу та ресурсів для обмірковування — це суттєво розширило можливості AI.
Лідери галузі впевнені: масштабування RL і моделей reasoning — новий рубіж розвитку. Наприклад, дослідження Meta та Periodic Labs щодо масштабування RL коштувало понад $4 млн, що демонструє високий фінансовий поріг нинішніх підходів. На цьому тлі Adaption Labs прагне довести: ефективне навчання на досвіді може бути значно дешевшим.
Вже цієї осені стартап закрив раунд посівного фінансування на суму від $20 до $40 млн, хоча точна цифра не розголошується. Хукер наразі не коментує цю інформацію.
Сара Хукер раніше керувала лабораторією Cohere Labs, де впроваджувала невеликі AI-моделі для корпоративних завдань. Сьогодні компактні системи часто перевершують великі за результатами в галузі кодування, математики та міркування — тенденцію, яку Хукер планує розвивати.
Вона також відома розширенням доступу до досліджень AI в усьому світі, зокрема завдяки залученню дослідників з Африки та інших недопредставлених регіонів. Adaption Labs готується відкрити офіс у Сан-Франциско, але Хукер має намір формувати глобальну команду.
Якщо Adaption Labs доведе обмеження масштабування моделей, наслідки для галузі можуть бути масштабними. Вже вкладено мільярди у розвиток LLM із вірою, що саме розмір наблизить штучний інтелект до загального. Однак справжнє адаптивне навчання може виявитися не лише потужнішим, а й значно ефективнішим шляхом розвитку AI.