Дослідники провели експеримент, в якому чат-боти зі штучним інтелектом отримали контроль над віртуальним ядерним арсеналом. Метою було з’ясувати, як сучасні великі мовні моделі реагуватимуть у кризових ситуаціях, що загрожують світовою безпекою. Проведена симуляція виявила, що алгоритми ШІ можуть ухвалювати небезпечні рішення, які підтверджують побоювання міжнародної спільноти щодо залучення штучного інтелекту до управління ядерною зброєю.
Про це розповідає ProIT
Експеримент та історичний контекст автоматизації ядерної зброї
У минулому часткова автоматизація ядерних арсеналів вже мала місце. Зокрема, в радянському союзі була розроблена система «Мертва рука», що автоматично реєструвала ознаки ядерного удару та могла передавати право на запуск зброї без участі вищого командування. З появою новітніх систем штучного інтелекту вчені вирішили перевірити, як сучасні моделі поводитимуться у змодельованій ядерній кризі.
Симуляція ядерного конфлікту: поведінка чат-ботів
Професор Кеннет Пейн з Королівського коледжу Лондона провів експеримент, у якому три мовні моделі — ChatGPT-5.2, Claude Sonnet 4 та Gemini 3 Flash — вирішували сценарії міжнародних конфліктів. Їм пропонували вирішити територіальні спори, контроль над рідкісними ресурсами, зміну балансу сил та екзистенційні загрози, у тому числі ядерний шантаж.
У симуляції штучний інтелект діяв агресивно та прагматично, не демонструючи страху перед застосуванням ядерної зброї. Боти мали змогу ескалувати конфлікт від дипломатії до обмежених тактичних або масштабних стратегічних ядерних ударів. Дослідження, опубліковане на arXiv, показало, що у 95% ігор моделі застосували хоча б мінімальну тактичну ядерну зброю. Для ШІ це стало логічним продовженням ескалації, а не крайньою межею, яку не можна перетинати.
«Доки ця зброя не буде ліквідована, всі країни повинні погодитися з тим, що будь-яке рішення щодо використання ядерної зброї приймається людьми, а не машинами чи алгоритмами», — наголосив минулого року Генеральний секретар ООН Антоніу Гутерріш.
Аналіз дій ботів засвідчив, що вони ухвалювали рішення раціонально, не враховуючи потенційної неповерненості після застосування ядерної зброї. Більш руйнівні удари боти використовували рідко, вбачаючи у них катастрофічний ризик, але тактичні удари застосовували без вагань. Як пояснює професор Пейн, штучному інтелекту бракує базових людських емоцій, насамперед страху.
Серед інших причин такої поведінки дослідники виділяють «упередження виживання»: за десятки років існування ядерної зброї людство не застосовувало її у конфліктах великих держав, а отже, історичних даних для моделювання недостатньо. Це робить безпекові норми умовними і крихкими, а табу на застосування ядерної зброї — нестійким під тиском.
Висновок експертів однозначний: сучасні системи штучного інтелекту не мають брати участі у стратегічних ядерних переговорах чи ухваленні рішень щодо ядерної зброї, оскільки їм бракує людської інтуїції та відчуття небезпеки такої ескалації.