Стало відомо, що на початку 2023 року хакер отримав доступ до внутрішніх систем обміну повідомленнями OpenAI та викрав інформацію про технології штучного інтелекту. The New York Times стверджує, що OpenAI повідомила про інцидент співробітникам, але не громадськості чи правоохоронним органам.
Хакеру вдалося викрасти інформацію з дискусій на онлайн-форумі співробітників OpenAI, де вони розповідали про новітні технології. На щастя для компанії, хакеру не вдалося зламати системи, де розміщуються та навчаються моделі GPT.
Неназвані джерела видання кажуть, що деякі співробітники компанії висловили занепокоєння, що подібні атаки можуть відбуватися на користь Китаю й інших подібних країн та поставити під загрозу національну безпеку США. Співробітники занепокоєні тим, наскільки серйозно OpenAI ставиться до безпеки. Кажуть, ніби серед персоналу компанії виникли розбіжності щодо безпекових ризиків штучного інтелекту.
У зв’язку з цим інцидентом колишній менеджер технічної програми OpenAI Леопольд Ашенбреннер написав доповідну записку до правління, про те, що компанія робить недостатньо, щоб зупинити крадіжку секретів іноземними супротивниками. Згодом OpenAI звільнила його за витік інформації за межі компанії — він стверджує, що це звільнення було політично мотивованим.
Розбіжності щодо безпеки виникають у працівників компанії не вперше. Нещодавно кілька дослідників безпеки залишили компанію через розбіжності щодо методів керування надрозумним штучним інтелектом.
За словами конкурента OpenAI, Даніели Амодей, співзасновниці компанії Anthropic, якби останні розробки генеративного штучного інтелекту були вкрадені, це не становило б великої загрози національній безпеці. Однак у міру того, як ця технологія стане більш розвиненою, це може змінитися.
OpenAI звинуватила The New York Times у зломі ChatGPT із метою подати позов про порушення авторських прав