Microsoft каже, що хакери військової розвідки рф використовують ChatGPT для покращення кібератак

Опубликовал
Катерина Даньшина

Згідно з розслідуванням Microsoft і OpenAI, хакери використовують великі мовні моделі (LLM) для проведення досліджень, написання сценаріїв атак чи фішингових листів.

«Групи кіберзлочинців досліджують і тестують різні технології штучного інтелекту в міру їх появи, намагаючись зрозуміти потенційну цінність для своїх операцій і засоби контролю безпеки, які їм, можливо, доведеться обійти», — йдеться в блозі Microsoft.

У звіті згадується про кіберугрупування, підтримувані росією, Північною Кореєю, Іраном і Китаєм.

На цей час встановлено, що хакери Strontium, пов’язані з російською військовою розвідкою, використовують велику мовну модель «для розуміння протоколів супутникового зв’язку, технологій радіолокаційних зображень і конкретних технічних параметрів».

Група, також відома як APT28 або Fancy Bear, була активною під час російсько-української війни, а також брала участь у нападах на президентську кампанію Гілларі Клінтон у 2016 році. За словами Microsoft, хакери також використовують LLM для допомоги в «основних завданнях сценаріїв, включаючи маніпулювання файлами, вибір даних, регулярні вирази та багатопроцесорну обробку, щоб потенційно автоматизувати або оптимізувати технічні операції».

Курс Quality Assurance (QA) від Mate academy.
Курс QA — ідеальний для новачка. Від основ тестування до складних стратегій — опануйте всі технології, щоб жодна помилка не змогла вас оминути. Ми впевнені в якості нашого курсу, тому гарантуємо вам працевлаштування після його завершення.
Зареєструватись на курс

Північнокорейська хакерська група, відома як Thallium, використовує LLM для вивчення публічно відомих вразливостей і цільових організацій, для допомоги в базових завданнях сценаріїв і для розробки контенту для фішингових кампаній.

Іранська група, відома як Curium, також використовує великі мовні моделі для створення фішингових електронних листів і навіть коду, щоб уникнути виявлення антивірусними програмами. Китайські державні хакери також використовують LLM для досліджень, створення сценаріїв, перекладів і вдосконалення існуючих інструментів.

Хоча використання штучного інтелекту в кібератаках на цей час здається обмеженим, Microsoft попереджає про потенційні випадки його використання для імітації голосу.

«Синтез голосу — приклад того, як на зразку тривалістю 3 секунди можна відтворити звучання кого завгодно», — каже Microsoft. «Навіть щось нешкідливе, як от ваш привітальний запис для голосової пошти також можна використати».

Microsoft наразі створює Security Copilot — нового помічника зі штучним інтелектом, розробленого для фахівців із кібербезпеки з метою допомогти виявити порушення та краще розуміти величезну кількість сигналів і даних, які щодня генеруються інструментами кібербезпеки.

Disqus Comments Loading...