Штучний інтелект вже активно змінює наше життя, часто непомітно та без зайвого розголосу. Його вплив відчувається у різних сферах — від цифрової безпеки до фінансових рішень, формуючи нові виклики для суспільства.
Про це розповідає ProIT
Сучасні шахрайські схеми та дипфейки
Інтелектуальні технології відкрили шахраям нові можливості для обману. Замість застарілих афер з листами від «нігерійських принців», вони використовують гіперперсоналізовані фішингові повідомлення. Нейромережі аналізують дані із соціальних мереж, стиль спілкування, контакти та професійні зв’язки потенційної жертви. Завдяки цьому створюються максимально правдоподібні електронні листи, часто нібито від знайомих чи керівництва. За оцінками The Register, ефективність таких атак виросла до 60% порівняно з 12% у традиційних схемах.
Ще більшу небезпеку становлять дипфейки. Наприклад, у 2024 році корпорація Arup втратила понад 25 мільйонів доларів через підроблену відеоконференцію. Усі «учасники» цієї зустрічі виявилися цифровими аватарами, створеними за допомогою ШІ. Тепер навіть зорове і слухове сприйняття більше не гарантує реальності подій.
Кіберзагрози та алгоритмічна упередженість
Кіберзлочинці розробили нові типи атак — prompt injection, або ін’єкції підказок. Жертва отримує електронний лист, який містить приховану команду для ШІ-асистента. Помічник виконує цю команду автоматично, наприклад, пересилає секретний код стороннім особам. Таким чином, цифрові асистенти стають співучасниками кібератак.
Водночас все більше рішень у фінансовій та кадровій сферах приймається алгоритмами. Банки довіряють ШІ визначення кредитоспроможності, а компанії — відбір персоналу. Однак алгоритми вчаться на людських даних і наслідують наші упередження. Наприклад, якщо система фіксує, що жінки 25-40 років часто йдуть у декрет, вона може автоматично ігнорувати їхні резюме. Також ШІ може відмовити у кредиті через минулі прострочення, не враховуючи зміни у фінансовому становищі людини.
І найгірше – неможливо оскаржити рішення ШІ. Немає з ким поговорити, довести компетентність чи просто пояснити ситуацію. Алгоритм уже виніс вирок, і апеляції не передбачено.
Наслідки таких рішень часто не підлягають оскарженню, що позбавляє людей можливості впливати на власну долю.
Небезпека сліпої довіри до технологій
Ще однією проблемою є беззастережна віра у правильність рішень, прийнятих комп’ютерними системами. У США вже використовують нейромережі для підготовки судових рішень: формально вердикт затверджує суддя, але текст готує ШІ, який може припуститися помилки.
Яскравим прикладом є справа Horizon у Великій Британії: через збій у бухгалтерській програмі понад 900 осіб були засуджені, ще 2000 звільнили і змусили сплатити компенсації. Керівництво сліпо повірили даним комп’ютера, не перевіривши їхню достовірність. Цей випадок показав, що основна проблема полягає не в самих технологіях, а у відсутності критичного мислення у людей, які їм довіряють.