Мій брат підніс телефон до мого вуха, попереджаючи: «Це здасться тобі страшним». В Instagram reel, де підліток виступав на мітингу, звучав голосовий супровід у стилі новинного випуску. Спокійний жіночий голос з легким манчестерським акцентом заявляв: «Нещодавній протест британського студента став потужним символом поглиблення кризи в освітній системі Великої Британії». Я миттєво зірвалася з місця, широко розплющивши очі.
Про це розповідає ProIT
Як ведуча на YouTube-каналі з новинами, я звикла чути свій голос на екрані. Але це не була я, хоча голос був беззаперечно моїм. Це було жахливо чути, як мій голос асоціюється з праворадикальною пропагандою. Досліджуючи цю ситуацію глибше, я виявила, наскільки далеко можуть поширюватися наслідки фальшивих аудіо.
Штучний інтелект і небезпека фальшивих голосів
Клонування голосів за допомогою штучного інтелекту є новою формою аудіо «deepfake». Цей тип шахрайства стрімко розвивається, займаючи третє місце серед найпоширеніших шахрайств 2024 року. Жертви не підозрюють, що їх голоси копіюють без їх згоди або відома, що вже призвело до обходу банківських перевірок і обману людей, які надсилали гроші шахраям, вважаючи їх родичами.
Після детального аналізу я виявила, що моє аудіо використовувалося на праворадикальному YouTube-каналі з близько 200 тисячами підписників. Канал нібито був американським, але в ньому було багато орфографічних помилок, типових для дезінформаційних облікових записів, які не є носіями англійської мови. Вісім з останніх дванадцяти відео на цьому каналі використовували мій голос.
Зростаюча загроза та можливості правового захисту
Проблема з правом власності на голоси все ще залишається неврегульованою у сфері штучного інтелекту. Наприклад, телевізійний натураліст Девід Аттенборо був в центрі скандалу з клонуванням голосів у листопаді, коли виявив, що його голос використовувався для політично заангажованих новинних випусків у США.
У березні 2024 року компанія OpenAI затримала випуск нового інструменту для клонування голосів, вважаючи його занадто ризикованим, особливо в рік з рекордною кількістю виборів у світі. Деякі стартапи впроваджують запобіжні заходи, що дозволяють виявляти клонування голосів політичних фігур, які активно беруть участь у виборчих кампаніях.
Однак цих заходів недостатньо. У США сенатори пропонують проект закону, що забороняє відтворення аудіо без згоди, а в Європі розробляються інструменти для виявлення deepfake, які можуть з’явитися вже цього року. Водночас експерти попереджають, що закони про конфіденційність і авторські права не встигають за розвитком нових технологій.
Незважаючи на можливості штучного інтелекту, така технологія може використовуватись для добрих цілей, зокрема, для допомоги людям із медичними проблемами голосу. Американський актор Валь Кілмер, перенісши лікування раку горла, повернувся до зйомок у фільмі «Top Gun: Maverick» завдяки відновленню голосу за допомогою штучного інтелекту.
Я свідомо ділилася своїм голосом, коли стала ведучою, але ніколи не погоджувалася віддати цю важливу частину себе для використання іншими без моєї згоди.