Компанія Anthropic опинилася у центрі суспільної дискусії після того, як відмовилася надати Міністерству оборони США дозвіл на використання своїх моделей штучного інтелекту Claude у військових цілях. У компанії підкреслили, що їхні технології не призначені для застосування у масовому внутрішньому стеженні чи повністю автономних системах озброєння.
Про це розповідає ProIT
Напруга між технологіями та національною безпекою
Позиція Anthropic спровокувала жорстку реакцію з боку Міноборони. Міністр оборони Піт Хегсет назвав Anthropic «ризиком для ланцюга поставок», що майже унеможливлює для компанії участь у державних військових контрактах. У відповідь компанія заявила про юридичну необґрунтованість такого рішення і попередила, що воно може створити небезпечний прецедент для інших підприємств, які прагнуть співпрацювати з урядом. Anthropic також має намір оскаржити це рішення у суді.
“Компанія наголосила, що її технології не можна застосовувати для масового внутрішнього стеження чи повністю автономної зброї”.
OpenAI погодила обмеження та співпрацює з Пентагоном
На цьому тлі OpenAI, яку очолює Сем Альтман, погодилася на партнерство з Пентагоном. Контракт передбачає використання моделей штучного інтелекту у спеціальній закритій мережі, з суворим дотриманням визначених принципів безпеки. Серед ключових умов — заборона на масове стеження, а також обов’язковий людський контроль під час застосування сили. Компанія додатково планує впровадити технічні запобіжники й залучити своїх інженерів до державних проєктів у сфері оборони.
Причини, чому Anthropic не пішла на аналогічну угоду, залишаються не до кінця зрозумілими. Як зазначив чиновник Джеремі Левін, контракт між OpenAI та Міністерством оборони США базується на принципі «будь-якого законного використання», проте містить окремі погоджені обмеження. В цілому, ситуація підкреслює загострення суперечностей між етичними орієнтирами технологічних компаній і вимогами державної безпеки США.