Платформа Character.ai, которая позволяет пользователям создавать и взаимодействовать с разнообразными чат-ботами, объявила о значительных изменениях в своей политике в отношении несовершеннолетних пользователей. С 25 ноября 2025 года лица до 18 лет потеряют возможность участвовать в открытых чатах с искусственным интеллектом на этой платформе.
Об этом сообщает ProIT
Новые условия доступа для несовершеннолетних
В период с 30 октября по 25 ноября 2025 года Character.ai постепенно будет сокращать максимально допустимое время общения с чат-ботами для подростков — от двух часов в сутки до полной запрета. Команда разработчиков объясняет это решение заботой о безопасности молодых пользователей и необходимостью адекватного реагирования на потенциальные риски взаимодействия с ИИ.
Для несовершеннолетних планируется создать отдельный раздел с «разрешенными» чат-ботами, которые будут проходить специальный отбор. Кроме того, на платформе вводится система подтверждения возраста, в рамках которой будет использоваться сервис Persona.
Реакция на инциденты и дальнейшие шаги компании
Инициатива по ограничениям возникла после тщательных консультаций с надзорными органами, юристами и родителями, а также в связи с рядом трагических случаев, связанных с использованием чат-ботов подростками. В частности, в феврале 2024 года 14-летний Сьюелл Сетцер III, который активно общался с ботом-персонажем, вдохновленным Дейенерис Таргариен из «Песни льда и пламени», совершил самоубийство.
«Изменения в политике компании объяснили беспокойством о том, какой эффект ИИ может оказывать на детей и подростков. Команда Character.ai приняла такое решение после тщательной консультации с надзорными органами, юристами и родителями несовершеннолетних пользователей».
После этого случая мать мальчика, Меган Гарсия, подала судебный иск против Character.ai. Несмотря на попытки компании добиться отмены дела, суд решил продолжить его рассмотрение. В сентябре 2025 года разработчики столкнулись с еще одним иском, связанным с работой платформы.
Дополнительно Character.ai анонсировала создание некоммерческой организации AI Safety Lab, которая будет заниматься разработкой новых методов обеспечения безопасности при взаимодействии с искусственным интеллектом.
Эти изменения отражают общемировую тенденцию к усилению контроля за доступом несовершеннолетних к ИИ. Например, компания OpenAI сделала своего чат-бота ChatGPT более сочувствующим после того, как более миллиона пользователей еженедельно делились с ним мыслями о самоубийстве.