Компания OpenAI значительно укрепила собственные процедуры безопасности, чтобы исключить корпоративное шпионаж и защитить свои инновационные технологии. Такие действия стали реакцией на инцидент с китайским стартапом DeepSeek, который в январе представил конкурентную модель. OpenAI подозревает, что DeepSeek использовала методы «дистилляции» для несанкционированного копирования их разработок.
Об этом сообщает ProIT
Ограничение доступа и новые политики безопасности
В рамках обновленной политики безопасности компания внедрила концепцию «информационных наметов», которая ограничивает круг сотрудников, имеющих доступ к чувствительным алгоритмам и информации о новых продуктах. В частности, при создании модели o1 только проверенные члены команды, предварительно ознакомленные с проектом, имели право обсуждать его в общих пространствах офиса.
Защита технологий и усиление физической безопасности
Кроме того, OpenAI изолировала свои технологии на автономных компьютерных системах, внедрила биометрический контроль доступа (в частности, сканирование отпечатков пальцев сотрудников) для отдельных офисных зон и установила политику «запрета по умолчанию» для подключений к внешнему интернету — каждое такое соединение должно быть предварительно одобрено. Также компания увеличила уровень физической охраны центров обработки данных и расширила штат специалистов по киберзащите.
Изменения, по словам источников, продиктованы опасениями по поводу попыток иностранных конкурентов украсть интеллектуальную собственность OpenAI, а также необходимостью реагировать на случаи утечки информации и внутренние угрозы безопасности.
Последние шаги свидетельствуют о растущем внимании к защите искусственного интеллекта как стратегического актива, особенно на фоне интенсивной конкуренции между американскими AI-компаниями и частых утечек внутренней информации.