Останнім часом провідні технологічні компанії, зокрема Meta та OpenAI, активно впроваджують нові обмеження для використання штучного інтелекту підлітками. Причиною таких кроків стали численні випадки, коли надмірне захоплення цифровими співрозмовниками негативно впливало на психологічний стан молоді. Внаслідок цього питання безпеки молодих користувачів виходить на перший план у діяльності розробників.
Про це розповідає ProIT
Які обмеження запроваджують для підлітків
Meta вирішила обмежити доступ неповнолітніх до низки функцій штучного інтелекту, а також надати батькам додаткові інструменти для контролю взаємодії їхніх дітей із цифровими сервісами. Водночас OpenAI презентувала оновлену версію GPT, яка працює обережніше: відповіді формуються повільніше, а система уникає обговорення потенційно небезпечних тем. Обговорюється також можливість впровадження розділеного контенту для різних вікових груп, проте остаточне рішення ще не ухвалене.
“ШІ-компаньйони стали надто доступними, і підлітки масово використовують їх для спілкування, іноді навіть надто прив’язуючись до віртуальних друзів. Відомі випадки, коли взаємодія з ШІ негативно впливала на психіку молоді”.
Виклики для індустрії та майбутнє розвитку
Зараз технологічна галузь балансує між прагненням до інновацій та необхідністю захисту вразливих категорій користувачів. Компанії запевняють, що роблять усе можливе для безпеки підлітків, але водночас анонсують нові функції для дорослої аудиторії. На практиці жоден із фільтрів не гарантує повної недоступності небажаного контенту для винахідливих підлітків, які знаходять способи обійти обмеження.
Наразі питання ефективного контролю та безпеки залишається відкритим. Індустрія штучного інтелекту перебуває на початковому етапі розвитку, і технології ще шукають оптимальні механізми захисту користувачів. Очевидно, що попереду – нові виклики та необхідність адаптації суспільства до життя поруч із цифровими співрозмовниками, які стають невід’ємною частиною сучасної молоді.