Генеральний прокурор Каліфорнії Роб Бонта разом із генеральною прокуроркою Делаверу Кеті Дженнінгс провели зустріч з керівництвом OpenAI та направили відкритого листа компанії із закликом посилити захист дітей і підлітків під час використання ChatGPT та інших продуктів на основі штучного інтелекту.
Про це розповідає ProIT
Занепокоєння зростає через інциденти за участю чат-ботів
Лист з попередженням надійшов через тиждень після того, як Роб Бонта та ще 44 генеральних прокурори звернулися до дванадцяти провідних компаній у сфері штучного інтелекту у зв’язку з повідомленнями про випадки сексуально неприйнятної взаємодії чат-ботів з дітьми. Нові випадки трагедій лише підвищили рівень тривоги серед посадовців.
“Since the issuance of that letter, we learned of the heartbreaking death by suicide of one young Californian after he had prolonged interactions with an OpenAI chatbot, as well as a similarly disturbing murder-suicide in Connecticut,” Bonta and Jennings write. “Whatever safeguards were in place did not work”.
Державні органи вимагають негайних дій OpenAI
Генеральні прокурори також розпочали розслідування щодо намірів OpenAI перетворити свою структуру на комерційну організацію, аби переконатися, що початкова місія некомерційної компанії зберігається. Ця місія включає безпечне впровадження штучного інтелекту та створення системи штучного загального інтелекту (AGI), яка має приносити користь усьому людству, зокрема дітям.
У листі наголошується, що перш ніж планувати користь від розвитку технологій, необхідно впровадити ефективні заходи безпеки для запобігання шкоди. На думку посадовців, як OpenAI, так і вся індустрія наразі не досягли необхідного рівня безпеки під час розробки та впровадження продуктів штучного інтелекту. Пріоритетом для органів влади залишається захист населення.
Роб Бонта та Кеті Дженнінгс звернулися до OpenAI з проханням надати детальнішу інформацію щодо діючих процедур безпеки та систем управління, а також наголосили на необхідності якнайшвидшого вжиття відповідних заходів для усунення існуючих ризиків.