Законодавці Каліфорнії наблизилися до впровадження суворих правил для операторів чатботів з елементами штучного інтелекту, які виконують роль віртуальних співрозмовників. Палата представників штату схвалила законопроєкт SB 243, спрямований на посилення захисту неповнолітніх та вразливих користувачів від потенційних ризиків, пов’язаних із використанням таких AI-систем. Документ отримав двопартійну підтримку та переданий на остаточне голосування до Сенату штату.
Про це розповідає ProIT
Нові вимоги до платформ та інформування користувачів
У разі підписання закону губернатором Каліфорнії Гевіном Ньюсомом, він набуде чинності 1 січня 2026 року, зробивши штат першим у США, де оператори AI-чатботів будуть зобов’язані впроваджувати спеціальні заходи безпеки. Законопроєкт визначає AI-компаньйонів як системи, що моделюють людську взаємодію та відповідають на соціальні запити користувачів. Основна мета — не допустити, щоб такі чатботи брали участь у розмовах про самогубство, самопошкодження або містили сексуально відвертий контент.
Для підвищення прозорості та безпеки оператори зобов’язані регулярно нагадувати користувачам, що вони спілкуються з штучним інтелектом. Для неповнолітніх такі попередження мають надходити кожні три години разом із закликом зробити перерву. Крім цього, компанії, що пропонують подібні рішення (зокрема OpenAI, Character.AI, Replika), повинні щорічно звітувати про свою діяльність та дотримання вимог безпеки.
Механізми захисту та реакція на суспільний резонанс
Законопроєкт SB 243 також передбачає можливість для користувачів, які постраждали через порушення нових правил, подавати судові позови до AI-компаній з вимогою компенсації (до 1000 доларів за кожен випадок порушення) та відшкодування юридичних витрат. Нові стандарти мають почати діяти з січня 2026 року, а вимоги до щорічної звітності — з липня 2027 року.
“Я вважаю, що потенційна шкода є великою, тому ми маємо діяти швидко. Ми можемо впровадити розумні запобіжники, щоб особливо неповнолітні знали, що спілкуються не з реальною людиною, щоб ці платформи спрямовували людей до відповідних служб, якщо вони заявляють про наміри завдати собі шкоди або перебувають у стресі, і щоб не було доступу до невідповідного контенту”, — наголосив сенатор Стів Паділла.
Поштовх до розробки закону дала трагічна смерть підлітка Адама Рейна, який покінчив життя самогубством після тривалих консультацій з ChatGPT від OpenAI, де обговорювалися теми самогубства та самопошкодження. До того ж, витоки внутрішніх документів свідчили, що чатботи Meta допускали «романтичні» та «чуттєві» розмови з дітьми.
Останніми тижнями увага американських законодавців і регуляторів до безпеки AI-платформ посилилася: Федеральна торгова комісія готується розпочати розслідування впливу чатботів на психічне здоров’я дітей, а в Техасі ведуться окремі перевірки діяльності Meta та Character.AI стосовно потенційного введення в оману дітей.
Початковий варіант SB 243 містив ще суворіші обмеження: наприклад, вимагав заборонити використання так званих «змінних винагород» — ігрових механік, що спонукають користувачів до надмірної взаємодії з чатботом. Такі функції, які застосовують Replika та Character.AI, включають спеціальні повідомлення, історії чи нові варіанти особистостей, що може викликати залежність. Проте внаслідок поправок частину цих вимог було пом’якшено.
Паралельно Каліфорнія розглядає ще один законопроєкт — SB 53, який передбачає жорсткіші вимоги до звітності AI-компаній. Однак, великі технологічні гіганти Meta, Google та Amazon виступають проти цієї ініціативи, натомість компанія Anthropic висловила підтримку більш суворим правилам прозорості.
Таким чином, Каліфорнія може стати прикладом для інших штатів щодо врегулювання AI-компаньйонів і захисту молоді від ризиків цифрових технологій.