Головна Технології Meta видаляє близько 20 таємних операцій впливу у 2024 році

Meta видаляє близько 20 таємних операцій впливу у 2024 році

Автор: Анна Мельник

Meta повідомила, що у 2024 році вона втрутилася, щоб ліквідувати близько 20 таємних операцій впливу по всьому світу. Попри побоювання, що штучний інтелект може викривити вибори, цього не сталося.

Про це розповідає ProIT

Нік Клегг, президент з глобальних питань компанії Meta, що керує Facebook, Instagram та WhatsApp, зазначив, що росія залишається головним джерелом ворожої онлайн-активності. Він також зауважив, що у рік, насичений виборчими кампаніями по всьому світу, було «вражаюче», наскільки мало штучний інтелект використовувався для обману виборців.

Загрози від штучного інтелекту: оцінка Meta

Колишній заступник прем’єр-міністра Великобританії розкрив, що Meta, яка налічує понад 3 мільярди користувачів, довелося відмовити у виконанні понад 500 000 запитів на створення зображень за допомогою її інструментів штучного інтелекту для фігур, таких як Дональд Трамп і Камала Гарріс, Джей Ді Венс і Джо Байден за місяць до американських виборів.

Однак експерти з безпеки Meta змушені були протидіяти новим операціям, які використовували фейкові акаунти для маніпуляцій громадською думкою з частотою понад одну кожні три тижні. Зокрема, випадки «скоординованої неавтентичної поведінки» включали російську мережу, яка використовувала десятки облікових записів у Facebook та фейкові новинні вебсайти, щоб впливати на людей у Грузії, Вірменії та Азербайджані.

Інша операція, заснована у росії, використовувала штучний інтелект для створення фейкових новинних вебсайтів, які видавали себе за відомі бренди, як-от Fox News та Telegraph, намагаючись послабити західну підтримку України, а також просувати роль росії в Африці та критикувати Францію.

Попередження про майбутні виклики

Нік Клегг зазначив, що «росія залишається головним джерелом таємних операцій впливу, які ми вже викрили – всього 39 мереж з 2017 року». Наступними найчастішими джерелами іноземного втручання, виявленими Meta, є Іран і Китай.

Оцінюючи вплив обману за допомогою штучного інтелекту після виборчої хвилі в 50 країнах, включаючи США, Індію, Тайвань, Францію, Німеччину та Велику Британію, Клегг заявив: «Були різні попередження про потенційні ризики, такі як повсюдні дипфейки і кампанії дезінформації, підтримувані штучним інтелектом. Це не те, що ми бачили за нашими спостереженнями». Він додав, що вплив виявився незначним і обмеженим за масштабом.

Проте Клегг застеріг проти самозаспокоєності та сказав, що відносно несуттєвий вплив обману за допомогою генеративного штучного інтелекту, що маніпулює відео, голосами та фотографіями, «дуже ймовірно зміниться».

Він підкреслив: «Очевидно, що ці інструменти стануть більш поширеними, і ми будемо бачити більше синтетичного та гібридного контенту в Інтернеті».

Оцінка Meta слідує за висновками Центру технологій та безпеки, що «обманний контент, створений штучним інтелектом, вплинув на обговорення виборів у США, підсилюючи інші форми дезінформації і загострюючи політичні дебати».

Вона дійшла висновку, що загрози, що підтримуються штучним інтелектом, почали завдавати шкоди здоров’ю демократичних систем у 2024 році і попередила, що «самозаспокоєність не повинна виникнути» перед виборами у 2025 році в Австралії та Канаді.

Дослідник Алан Тьюрінг Інституту Сем Стоквелл зазначив, що інструменти штучного інтелекту могли формувати дискурси виборів і підсилювати шкідливі наративи у тонкі способи, особливо на останніх виборах у США.

Читайте також

About Us

Soledad is the Best Newspaper and Magazine WordPress Theme with tons of options and demos ready to import. This theme is perfect for blogs and excellent for online stores, news, magazine or review sites. Buy Soledad now!

Latest Articles

© ProIT. Видання не несе жодної відповідальності за зміст і достовірність фактів, думок, поглядів, аргументів та висновків, які викладені у інформаційних матеріалах з посиланням на інші джерела інформації. Усі запити щодо такої інформації мають надсилатися виключно джерелам відповідної інформації.