Мой брат поднес телефон к моему уху, предупреждая: "Это покажется тебе страшным". В Instagram reel, где подросток выступал на митинге, звучало голосовое сопровождение в стиле новостного выпуска. Спокойный женский голос с легким манчестерским акцентом заявлял: "Недавний протест британского студента стал мощным символом углубления кризиса в образовательной системе Великобритании". Я мгновенно сорвалась с места, широко открыв глаза.
Об этом сообщает ProIT
Как ведущая на YouTube канале с новостями, я привыкла слышать свой голос на экране. Но это не была я, хотя голос был безусловно моим. Это было ужасно слышно, как мой голос ассоциируется с праворадикальной пропагандой. Исследуя эту ситуацию глубже, я обнаружила, как далеко могут распространяться последствия фальшивых аудио.
Искусственный интеллект и опасность фальшивых голосов
Клонирование голосов с помощью искусственного интеллекта является новой формой аудио deepfake. Этот тип мошенничества стремительно развивается, занимая третье место среди самых распространенных мошенничеств в 2024 году. Жертвы не подозревают, что их голоса копируют без их согласия или сведения, что уже привело к обходу банковских проверок и обману людей, присылавших деньги мошенникам, считая их родственниками.
После подробного анализа я обнаружила, что мое аудио использовалось на праворадикальном YouTube-канале с около 200 тысяч подписчиков. Канал якобы был американским, но в нем было много орфографических ошибок, типичных для дезинформационных учетных записей, не являющихся носителями английского языка. Восемь из последних двенадцати видео на этом канале использовали мой голос.
Возрастающая угроза и возможности правовой защиты
Проблема с правом собственности на голоса все еще остается неурегулированной в сфере искусственного интеллекта. Например, телевизионный естествоиспытатель Дэвид Аттенборо был в центре скандала с клонированием голосов в ноябре, когда обнаружил, что его голос использовался для политически ангажированных новостных выпусков в США.
В марте 2024 г. компания OpenAI задержала выпуск нового инструмента для клонирования голосов, считая его слишком рискованным, особенно в год с рекордным количеством выборов в мире. Некоторые стартапы предпринимают меры предосторожности, позволяющие выявлять клонирование голосов политических фигур, активно участвующих в избирательных кампаниях.
Однако этих мер недостаточно. В США сенаторы предлагают проект закона, запрещающий воспроизведение аудио без согласия, а в Европе разрабатываются инструменты по обнаружению deepfake, которые могут появиться уже в этом году. В то же время эксперты предупреждают, что законы о конфиденциальности и авторских правах не успевают за развитием новых технологий.
Несмотря на возможности искусственного интеллекта, такая технология может использоваться для хороших целей, в частности для помощи людям с медицинскими проблемами голоса. Американский актер Валь Килмер, перенеся лечение рака горла, вернулся к съемкам в фильме Top Gun: Maverick благодаря восстановлению голоса с помощью искусственного интеллекта.
Я сознательно делилась своим голосом, когда стала ведущей, но никогда не соглашалась отдать эту немаловажную часть себя для использования другими без моего согласия.