Зловмисники у всьому світі активно використовують штучний інтелект для нових форм злочинів. Це викликає серйозне занепокоєння в правоохоронних органах. Алекс Мюррей, провідний спеціаліст поліції Великої Британії з питань штучного інтелекту, зазначив, що доступність технології зростає, і поліція повинна швидко реагувати на ці виклики.
Про це розповідає ProIT
“Ми знаємо, що злочинці завжди шукають нові способи здійснення злочинів, і штучний інтелект – це один з інструментів у їхньому арсеналі,” сказав Мюррей.
Шахрайство з використанням deepfake
На конференції Національної ради начальників поліції у Лондоні Мюррей висловив занепокоєння щодо нових видів шахрайства за допомогою технології deepfake. Зловмисники можуть підробляти відеозображення керівників компаній, обманюючи співробітників і змушуючи їх переводити великі суми грошей. Один із таких випадків стався, коли працівник багатонаціональної компанії був обманутий і перевів 200 мільйонів гонконгських доларів після відеоконференції, де шахраї видавали себе за фінансового директора фірми.
Небезпека дитячої порнографії
Мюррей також наголосив, що педофіли активно використовують генеративний штучний інтелект для створення образів сексуального насильства над дітьми. “Ми говоримо про тисячі зображень, які є незаконними, незалежно від їхнього походження,” додав він. Х’ю Нельсон, 27-річний житель Болтона, був засуджений до 18 років ув’язнення за використання штучного інтелекту для створення таких зображень на замовлення.
Також зростає кількість випадків сексуального вимагання, коли злочинці використовують штучний інтелект для “роздягання” фотографій, взятих із соціальних мереж, і загрожують їх оприлюдненням, якщо жертви не виконають вимоги.
На додаток до цього, хакери застосовують штучний інтелект для пошуку вразливостей у програмному забезпеченні, що відкриває можливості для кібератак. Попередження також стосується використання чат-ботів, які можуть підбурювати до злочинів і тероризму.
Джонатан Холл, незалежний рецензент законодавства про тероризм, досліджує, як терористичні групи можуть використовувати штучний інтелект. Він застерігає, що “чат-боти можуть стати інструментом радикалізації”. Хоча ще не зрозуміло, як саме генеративний штучний інтелект буде використовуватися терористами, важливо мати спільне розуміння та бути готовими діяти.
Мюррей підкреслив, що з розширенням доступу до програмного забезпечення для генерації текстів і зображень, його використання злочинцями зростатиме. “Правоохоронні органи повинні швидко адаптуватися, щоб запобігти зростанню цих злочинів до 2029 року,” наголосив він.