Главная Технологии Как искусственный интеллект может злоупотреблять голосами без согласия

Как искусственный интеллект может злоупотреблять голосами без согласия

Мой брат поднес телефон к моему уху, предупреждая: "Это покажется тебе страшным". В Instagram reel, где подросток выступал на митинге, звучало голосовое сопровождение в стиле новостного выпуска. Спокойный женский голос с легким манчестерским акцентом заявлял: "Недавний протест британского студента стал мощным символом углубления кризиса в образовательной системе Великобритании". Я мгновенно сорвалась с места, широко открыв глаза.

Об этом сообщает ProIT

Как ведущая на YouTube канале с новостями, я привыкла слышать свой голос на экране. Но это не была я, хотя голос был безусловно моим. Это было ужасно слышно, как мой голос ассоциируется с праворадикальной пропагандой. Исследуя эту ситуацию глубже, я обнаружила, как далеко могут распространяться последствия фальшивых аудио.

Искусственный интеллект и опасность фальшивых голосов

Клонирование голосов с помощью искусственного интеллекта является новой формой аудио deepfake. Этот тип мошенничества стремительно развивается, занимая третье место среди самых распространенных мошенничеств в 2024 году. Жертвы не подозревают, что их голоса копируют без их согласия или сведения, что уже привело к обходу банковских проверок и обману людей, присылавших деньги мошенникам, считая их родственниками.

После подробного анализа я обнаружила, что мое аудио использовалось на праворадикальном YouTube-канале с около 200 тысяч подписчиков. Канал якобы был американским, но в нем было много орфографических ошибок, типичных для дезинформационных учетных записей, не являющихся носителями английского языка. Восемь из последних двенадцати видео на этом канале использовали мой голос.

Возрастающая угроза и возможности правовой защиты

Проблема с правом собственности на голоса все еще остается неурегулированной в сфере искусственного интеллекта. Например, телевизионный естествоиспытатель Дэвид Аттенборо был в центре скандала с клонированием голосов в ноябре, когда обнаружил, что его голос использовался для политически ангажированных новостных выпусков в США.

В марте 2024 г. компания OpenAI задержала выпуск нового инструмента для клонирования голосов, считая его слишком рискованным, особенно в год с рекордным количеством выборов в мире. Некоторые стартапы предпринимают меры предосторожности, позволяющие выявлять клонирование голосов политических фигур, активно участвующих в избирательных кампаниях.

Однако этих мер недостаточно. В США сенаторы предлагают проект закона, запрещающий воспроизведение аудио без согласия, а в Европе разрабатываются инструменты по обнаружению deepfake, которые могут появиться уже в этом году. В то же время эксперты предупреждают, что законы о конфиденциальности и авторских правах не успевают за развитием новых технологий.

Несмотря на возможности искусственного интеллекта, такая технология может использоваться для хороших целей, в частности для помощи людям с медицинскими проблемами голоса. Американский актер Валь Килмер, перенеся лечение рака горла, вернулся к съемкам в фильме Top Gun: Maverick благодаря восстановлению голоса с помощью искусственного интеллекта.

Я сознательно делилась своим голосом, когда стала ведущей, но никогда не соглашалась отдать эту немаловажную часть себя для использования другими без моего согласия.

Читайте также

About Us

Soledad is the Best Newspaper and Magazine WordPress Theme with tons of options and demos ready to import. This theme is perfect for blogs and excellent for online stores, news, magazine or review sites. Buy Soledad now!

Latest Articles

© ProIT. Видання не несе жодної відповідальності за зміст і достовірність фактів, думок, поглядів, аргументів та висновків, які викладені у інформаційних матеріалах з посиланням на інші джерела інформації. Усі запити щодо такої інформації мають надсилатися виключно джерелам відповідної інформації.