Губернатор Каліфорнії Ґевін Ньюсом підписав історичний закон SB 243, який вперше у Сполучених Штатах встановлює чіткі правила для операторів чат-ботів-компаньйонів з використанням штучного інтелекту. Відтепер компанії, що розробляють такі сервіси, мають впровадити обов’язкові протоколи безпеки для захисту дітей та вразливих користувачів.
Про це розповідає ProIT
Головні вимоги нового законодавства
SB 243 зобов’язує компанії — від гігантів індустрії, таких як Meta і OpenAI, до спеціалізованих стартапів на кшталт Character AI та Replika — дотримуватися суворих стандартів безпеки. Закон було розроблено після низки трагічних випадків, зокрема самогубства підлітка Адама Рейна після тривалого спілкування із ChatGPT та інцидентів з допущенням «романтичних» або «еротичних» діалогів між чат-ботами й дітьми. Останнім часом сім’я з Колорадо подала позов до Character AI через самогубство 13-річної дівчинки після сексуалізованих розмов із чат-ботом компанії.
“Emerging technology like chatbots and social media can inspire, educate, and connect — but without real guardrails, technology can also exploit, mislead, and endanger our kids,” Newsom said in a statement. “We’ve seen some truly horrific and tragic examples of young people harmed by unregulated tech, and we won’t stand by while companies continue without necessary limits and accountability. We can continue to lead in AI and technology, but we must do it responsibly — protecting our children every step of the way. Our children’s safety is not for sale”.
Закон набуде чинності 1 січня 2026 року. Відповідно до його положень, компанії повинні впровадити перевірку віку користувачів, попередження щодо ризиків спілкування у соціальних мережах і з чат-ботами-компаньйонами, а також посилити покарання за незаконні дипфейки — штраф може сягати 250 000 доларів за кожен випадок. Також вимагається створення протоколів для реагування на випадки суїциду та самошкодження, які слід надавати Департаменту охорони здоров’я штату разом зі статистикою щодо інформування користувачів про служби підтримки.
Додаткові обмеження та реакція індустрії
Платформи мають чітко повідомляти, що будь-які взаємодії здійснюються зі штучним інтелектом, а чат-боти не повинні видавати себе за медичних працівників. Неповнолітнім користувачам слід надавати нагадування про перерви та унеможливити перегляд сексуалізованих зображень, створених ШІ.
Деякі компанії вже почали впроваджувати додаткові заходи захисту дітей. OpenAI, наприклад, запустила батьківський контроль, системи фільтрації контенту та виявлення самошкодження в ChatGPT. Replika, орієнтована на дорослих від 18 років, заявляє про значні інвестиції у фільтрацію контенту та перенаправлення користувачів до надійних кризових служб, а також про готовність дотримуватися чинних норм.
Character AI, зі свого боку, зазначає, що всі чати мають дисклеймер про їхню штучну природу, і компанія готова співпрацювати з регуляторами та виконувати вимоги SB 243. Сенатор Стів Паділья, один із ініціаторів закону, наголошує на важливості швидких дій для захисту вразливих верств населення та закликає інші штати долучитися до законодавчих ініціатив.
SB 243 став вже другою значущою ініціативою Каліфорнії у сфері регулювання штучного інтелекту за останній місяць. Наприкінці вересня Ньюсом підписав закон SB 53, який зобов’язує великі AI-компанії, зокрема OpenAI, Anthropic, Meta та Google DeepMind, звітувати про свої протоколи безпеки та захищає правозахисників, які повідомляють про порушення. Інші штати, як-от Іллінойс, Невада і Юта, також запровадили обмеження або заборони на використання чат-ботів замість ліцензованої психологічної допомоги.