Искусственный интеллект уже активно меняет нашу жизнь, часто незаметно и без лишнего шума. Его влияние ощущается в различных сферах — от цифровой безопасности до финансовых решений, формируя новые вызовы для общества.
Об этом сообщает ProIT
Современные мошеннические схемы и дипфейки
Интеллектуальные технологии открыли мошенникам новые возможности для обмана. Вместо устаревших афер с письмами от «нигерийских принцев» они используют гиперперсонализированные фишинговые сообщения. Нейросети анализируют данные из социальных сетей, стиль общения, контакты и профессиональные связи потенциальной жертвы. Благодаря этому создаются максимально правдоподобные электронные письма, часто якобы от знакомых или руководства. По оценкам The Register, эффективность таких атак возросла до 60% по сравнению с 12% в традиционных схемах.
Еще большую опасность представляют дипфейки. Например, в 2024 году корпорация Arup потеряла более 25 миллионов долларов из-за поддельной видеоконференции. Все «участники» этой встречи оказались цифровыми аватарами, созданными с помощью ИИ. Теперь даже зрительное и слуховое восприятие больше не гарантирует реальности событий.
Киберугрозы и алгоритмическая предвзятость
Киберпреступники разработали новые типы атак — prompt injection, или инъекции подсказок. Жертва получает электронное письмо, которое содержит скрытую команду для ИИ-ассистента. Помощник выполняет эту команду автоматически, например, пересылает секретный код третьим лицам. Таким образом, цифровые ассистенты становятся соучастниками кибератак.
В то же время все больше решений в финансовой и кадровой сферах принимается алгоритмами. Банки доверяют ИИ определение кредитоспособности, а компании — отбор персонала. Однако алгоритмы учатся на человеческих данных и подражают нашим предвзятостям. Например, если система фиксирует, что женщины 25-40 лет часто уходят в декрет, она может автоматически игнорировать их резюме. Также ИИ может отказать в кредите из-за прошлых просрочек, не учитывая изменения в финансовом положении человека.
И самое худшее — невозможно обжаловать решение ИИ. Некому поговорить, доказать компетентность или просто объяснить ситуацию. Алгоритм уже вынес приговор, и апелляции не предусмотрено.
Последствия таких решений часто не подлежат обжалованию, что лишает людей возможности влиять на собственную судьбу.
Опасность слепой веры в технологии
Еще одной проблемой является безоговорочная вера в правильность решений, принимаемых компьютерными системами. В США уже используют нейросети для подготовки судебных решений: формально вердикт утверждает судья, но текст готовит ИИ, который может допустить ошибку.
Ярким примером является дело Horizon в Великобритании: из-за сбоя в бухгалтерской программе более 900 человек были осуждены, еще 2000 освобождены и вынуждены выплатить компенсации. Руководство слепо поверило данным компьютера, не проверив их достоверность. Этот случай показал, что основная проблема заключается не в самих технологиях, а в отсутствии критического мышления у людей, которые им доверяют.