Microsoft говорит, что хакеры военной разведки рф используют ChatGPT для улучшения кибератак

Опубликовал
Катерина Даньшина

Согласно расследованию Microsoft и OpenAI, хакеры используют большие языковые модели (LLM) для проведения исследований, написания сценариев атак или фишинговых писем.

«Группы киберпреступников исследуют и тестируют различные технологии искусственного интеллекта по мере их появления, пытаясь понять потенциальную ценность для своих операций и средства контроля безопасности, которые им, возможно, придется обойти», — говорится в блоге Microsoft.

В отчете упоминается о кибергруппировках, поддерживаемых россией, Северной Кореей, Ираном и Китаем.

В настоящее время установлено, что хакеры Strontium, связанные с российской военной разведкой, используют большую языковую модель «для понимания протоколов спутниковой связи, технологий радиолокационных изображений и конкретных технических параметров».

Группа, также известная как APT28 или Fancy Bear, была активной во время российско-украинской войны, а также участвовала в атаках на президентскую кампанию Хиллари Клинтон в 2016 году. По словам Microsoft, хакеры также используют LLM для помощи в «основных задачах сценариев, включая манипулирование файлами, выбор данных, регулярные выражения и многопроцессорную обработку, чтобы потенциально автоматизировать или оптимизировать технические операции».

Онлайн-курс "QA Automation" від robot_dreams.
Це 70% практики, 30% теорії та проєкт у портфоліо.Навчіться запускати перевірку сотень опцій одночасно, натиснувши лише одну кнопку.
Детальніше про курс

Северокорейская хакерская группа, известная как Thallium, использует LLM для изучения публично известных уязвимостей и целевых организаций, для помощи в базовых задачах сценариев и для разработки контента для фишинговых кампаний.

Иранская группа, известная как Curium, также использует большие языковые модели для создания фишинговых электронных писем и даже кода, чтобы избежать обнаружения антивирусными программами. Китайские государственные хакеры также используют LLM для исследований, создания сценариев, переводов и совершенствования существующих инструментов.

Хотя использование искусственного интеллекта в кибератаках в настоящее время кажется ограниченным, Microsoft предупреждает о потенциальных случаях его использования для имитации голоса.

«Синтез голоса — пример того, как на образце продолжительностью 3 секунды можно воспроизвести звучание кого угодно», — говорит Microsoft. «Даже что-то безобидное, вроде вашей приветственной записи для голосовой почты также можно использовать».

Microsoft сейчас создает Security Copilot — нового помощника с искусственным интеллектом, разработанного для специалистов по кибербезопасности с целью помочь в віявлениинарушения и лучше понимать огромное количество сигналов и данных, ежедневно генерируемых инструментами кибербезопасности.

Disqus Comments Loading...