Главная ИТ-бизнес OpenAI заключила соглашение с Пентагоном: AI-модели для Минобороны США с техническими предостережениями

OpenAI заключила соглашение с Пентагоном: AI-модели для Минобороны США с техническими предостережениями

Генеральный директор OpenAI Сэм Альтман объявил о подписании соглашения между его компанией и Министерством обороны США, которое позволяет использовать искусственный интеллект OpenAI в классифицированных сетях оборонного ведомства. Особенностью этого сотрудничества стали внедренные технические предостережения, учитывающие ключевые этические вопросы, которые ранее вызывали споры на рынке AI.

Об этом сообщает ProIT

Конфликт вокруг этики использования искусственного интеллекта

Соглашение с OpenAI подписано на фоне громкого противостояния между Пентагоном и компанией Anthropic, которая отказалась предоставить свои модели для «всех законных целей» из-за обеспокоенности по поводу массового внутреннего наблюдения и использования автономного оружия. Согласно заявлению генерального директора Anthropic Дарио Амодеи, компания не выступала против отдельных военных операций, однако считает, что в отдельных случаях AI может подрывать демократические ценности, а не защищать их.

«В узком круге случаев мы считаем, что искусственный интеллект может подрывать, а не защищать демократические ценности».

Более 60 сотрудников OpenAI и 300 работников Google подписали открытое письмо с призывом поддержать позицию Anthropic по этическому использованию искусственного интеллекта. Однако после провала переговоров Anthropic с Пентагоном президент США Дональд Трамп раскритиковал компанию и поручил федеральным агентствам прекратить сотрудничество с ней в течение шести месяцев. А министр обороны Пит Гегсет объявил Anthropic риском для цепочки поставок, запретив любым подрядчикам и партнерам Минобороны взаимодействовать с этой компанией.

Особенности соглашения OpenAI и дальнейшие шаги

OpenAI, со своей стороны, согласилась на условия Пентагона, внедрив в договор положения, которые запрещают массовое внутреннее наблюдение и гарантируют человеческую ответственность в применении силы, в частности в отношении автономного вооружения. Сэм Альтман подчеркнул, что компания создаст технические механизмы защиты, чтобы AI-модели работали в соответствии с установленными стандартами, а также направит своих инженеров в Пентагон для контроля безопасности внедренных систем.

Альтман также призвал Министерство обороны США предоставить аналогичные условия всем AI-компаниям, чтобы способствовать деэскалации юридических и государственных противостояний и переходу к разумным соглашениям. Он сообщил, что правительство позволит OpenAI создать собственный «safety stack» — многоуровневую систему безопасности для предотвращения потенциального злоупотребления AI-моделями. Указано, что если модель отказывается выполнять определенную задачу, правительство не сможет заставить компанию изменить ее поведение.

Заявление Альтмана прозвучало накануне сообщений о начале совместных бомбардировок Ирана правительствами США и Израиля, а также после призыва Дональда Трампа к смене иранского режима.

Читайте также

About Us

Soledad is the Best Newspaper and Magazine WordPress Theme with tons of options and demos ready to import. This theme is perfect for blogs and excellent for online stores, news, magazine or review sites. Buy Soledad now!

Latest Articles

© ProIT. Видання не несе жодної відповідальності за зміст і достовірність фактів, думок, поглядів, аргументів та висновків, які викладені у інформаційних матеріалах з посиланням на інші джерела інформації. Усі запити щодо такої інформації мають надсилатися виключно джерелам відповідної інформації.