Законодатели Калифорнии приблизились к внедрению строгих правил для операторов чатботов с элементами искусственного интеллекта, которые выполняют роль виртуальных собеседников. Палата представителей штата одобрила законопроект SB 243, направленный на усиление защиты несовершеннолетних и уязвимых пользователей от потенциальных рисков, связанных с использованием таких AI-систем. Документ получил двупартийную поддержку и передан на окончательное голосование в Сенат штата.
Об этом сообщает ProIT
Новые требования к платформам и информирование пользователей
В случае подписания закона губернатором Калифорнии Гэвином Ньюсомом, он вступит в силу 1 января 2026 года, сделав штат первым в США, где операторы AI-чатботов будут обязаны внедрять специальные меры безопасности. Законопроект определяет AI-компаньонов как системы, моделирующие человеческое взаимодействие и отвечающие на социальные запросы пользователей. Основная цель — не допустить, чтобы такие чатботы участвовали в разговорах о самоубийстве, самоповреждении или содержали сексуально откровенный контент.
Для повышения прозрачности и безопасности операторы обязаны регулярно напоминать пользователям, что они общаются с искусственным интеллектом. Для несовершеннолетних такие предупреждения должны поступать каждые три часа вместе с призывом сделать перерыв. Кроме того, компании, предлагающие подобные решения (в частности, OpenAI, Character.AI, Replika), должны ежегодно отчитываться о своей деятельности и соблюдении требований безопасности.
Механизмы защиты и реакция на общественный резонанс
Законопроект SB 243 также предусматривает возможность для пользователей, пострадавших из-за нарушения новых правил, подавать судебные иски к AI-компаниям с требованием компенсации (до 1000 долларов за каждый случай нарушения) и возмещения юридических расходов. Новые стандарты должны начать действовать с января 2026 года, а требования к ежегодной отчетности — с июля 2027 года.
«Я считаю, что потенциальный вред велик, поэтому мы должны действовать быстро. Мы можем внедрить разумные предостережения, чтобы особенно несовершеннолетние знали, что общаются не с реальным человеком, чтобы эти платформы направляли людей к соответствующим службам, если они заявляют о намерениях причинить себе вред или находятся в стрессе, и чтобы не было доступа к неподобающему контенту», — подчеркнул сенатор Стив Падилла.
Толчком к разработке закона стала трагическая смерть подростка Адама Рейна, который покончил с собой после длительных консультаций с ChatGPT от OpenAI, где обсуждались темы самоубийства и самоповреждения. Кроме того, утечки внутренних документов свидетельствовали о том, что чатботы Meta допускали «романтические» и «чувственные» разговоры с детьми.
В последние недели внимание американских законодателей и регуляторов к безопасности AI-платформ усилилось: Федеральная торговая комиссия готовится начать расследование влияния чатботов на психическое здоровье детей, а в Техасе проводятся отдельные проверки деятельности Meta и Character.AI в отношении потенциального введения в заблуждение детей.
Начальный вариант SB 243 содержал еще более строгие ограничения: например, требовал запретить использование так называемых «переменных вознаграждений» — игровых механик, которые побуждают пользователей к чрезмерному взаимодействию с чатботом. Такие функции, которые применяют Replika и Character.AI, включают специальные сообщения, истории или новые варианты личностей, что может вызывать зависимость. Однако в результате поправок часть этих требований была смягчена.
Параллельно Калифорния рассматривает еще один законопроект — SB 53, который предполагает более жесткие требования к отчетности AI-компаний. Однако крупные технологические гиганты Meta, Google и Amazon выступают против этой инициативы, в то время как компания Anthropic выразила поддержку более строгим правилам прозрачности.
Таким образом, Калифорния может стать примером для других штатов в вопросах регулирования AI-компаньонов и защиты молодежи от рисков цифровых технологий.