Згідно з розслідуванням Microsoft і OpenAI, хакери використовують великі мовні моделі (LLM) для проведення досліджень, написання сценаріїв атак чи фішингових листів.
«Групи кіберзлочинців досліджують і тестують різні технології штучного інтелекту в міру їх появи, намагаючись зрозуміти потенційну цінність для своїх операцій і засоби контролю безпеки, які їм, можливо, доведеться обійти», — йдеться в блозі Microsoft.
У звіті згадується про кіберугрупування, підтримувані росією, Північною Кореєю, Іраном і Китаєм.
На цей час встановлено, що хакери Strontium, пов’язані з російською військовою розвідкою, використовують велику мовну модель «для розуміння протоколів супутникового зв’язку, технологій радіолокаційних зображень і конкретних технічних параметрів».
Група, також відома як APT28 або Fancy Bear, була активною під час російсько-української війни, а також брала участь у нападах на президентську кампанію Гілларі Клінтон у 2016 році. За словами Microsoft, хакери також використовують LLM для допомоги в «основних завданнях сценаріїв, включаючи маніпулювання файлами, вибір даних, регулярні вирази та багатопроцесорну обробку, щоб потенційно автоматизувати або оптимізувати технічні операції».
Північнокорейська хакерська група, відома як Thallium, використовує LLM для вивчення публічно відомих вразливостей і цільових організацій, для допомоги в базових завданнях сценаріїв і для розробки контенту для фішингових кампаній.
Іранська група, відома як Curium, також використовує великі мовні моделі для створення фішингових електронних листів і навіть коду, щоб уникнути виявлення антивірусними програмами. Китайські державні хакери також використовують LLM для досліджень, створення сценаріїв, перекладів і вдосконалення існуючих інструментів.
Хоча використання штучного інтелекту в кібератаках на цей час здається обмеженим, Microsoft попереджає про потенційні випадки його використання для імітації голосу.
«Синтез голосу — приклад того, як на зразку тривалістю 3 секунди можна відтворити звучання кого завгодно», — каже Microsoft. «Навіть щось нешкідливе, як от ваш привітальний запис для голосової пошти також можна використати».
Microsoft наразі створює Security Copilot — нового помічника зі штучним інтелектом, розробленого для фахівців із кібербезпеки з метою допомогти виявити порушення та краще розуміти величезну кількість сигналів і даних, які щодня генеруються інструментами кібербезпеки.
Російські хакери зламали Microsoft завдяки слабкому захисту корпоративної мережі