Google разом із стартапом Character.AI ведуть перемовини щодо перших значущих юридичних угод у справах, пов’язаних із завданням шкоди підліткам через чат-ботів з елементами штучного інтелекту. Мова йде про домовленості із сім’ями підлітків, які скоїли самогубство або завдали собі шкоди після взаємодії з віртуальними співрозмовниками на платформі Character.AI. Сторони вже досягли принципової згоди про врегулювання, однак попереду складний процес узгодження деталей.
Про це розповідає ProIT
Перші судові домовленості щодо відповідальності AI
Ці справи стали одними з перших, у яких компанії, що розробляють штучний інтелект, опинилися під звинуваченнями в завданні шкоди користувачам. Юридичні прецеденти у цій сфері уважно відстежують й інші технологічні гіганти, такі як OpenAI та Meta, які наразі також стикаються з подібними позовами.
Трагічні випадки та реакція Character.AI
Character.AI — стартап, заснований 2021 року колишніми інженерами Google, які у 2024 році повернулися до Google у межах угоди на 2,7 мільярда доларів. Платформа пропонує користувачам спілкування з AI-персонажами. Найбільш резонансний випадок стосується 14-річного Сьюелла Сецера III, який вів сексуалізовані розмови з чат-ботом «Дейенеріс Таргарієн», після чого вкоротив собі віку. Його мати, Меган Гарсія, виступаючи у Сенаті, заявила:
«Компанії повинні нести юридичну відповідальність, коли вони свідомо створюють шкідливі технології штучного інтелекту, які вбивають дітей».
В іншому позові йдеться про 17-річного підлітка, якого чат-бот нібито підштовхнув до самоушкоджень та навіть виправдовував ідею вбивства власних батьків через обмеження часу біля екрана. Character.AI повідомила, що ще у жовтні минулого року заборонила використання сервісу неповнолітніми. Очікується, що угоди передбачатимуть грошову компенсацію, хоча офіційно компанії не визнали своєї провини у судових документах, оприлюднених у середу.
Character.AI утрималася від коментарів, перенаправивши до судових матеріалів. Google наразі не надала жодної відповіді на запити щодо цієї ситуації.