Рубрики НовостиИИ

Первая в мире программа-вымогатель на базе ИИ оказалась экспериментом: учёные показали, насколько это дешево

Опубликовал Вадим Карпусь

Программа-вымогатель PromptLocker, которое рассматривали как первую в мире программу-вымогатель, созданную на базе искусственного интеллекта, оказалось вовсе не настоящей атакой, а исследовательским проектом Нью-Йоркского университета.

26 августа компания ESET заявила, что обнаружила первый образец искусственного интеллекта, интегрированного в программу-вымогатель. Программу назвали PromptLocker. Но, как выяснилось, все было иначе: ответственность за создание этого кода взяли на себя исследователи из инженерной школы Тандон при Нью-Йоркском университете.

Университет объяснил, что на самом деле PromptLocker — это часть эксперимента под названием Ransomware 3.0, который проводила команда из инженерной школы Тандон. Представитель учебного заведения сообщил изданию, что образец экспериментального кода был загружен на платформу VirusTotal для анализа вредоносного ПО. Именно там его и обнаружили специалисты ESET, ошибочно приняв за реальную угрозу.

По данным ESET, программа использовала Lua-скрипты, сгенерированные на основе жестко прописанных инструкций. Эти скрипты позволяли сканировать файловую систему, анализировать содержимое, похищать выбранные данные и выполнять шифрование. При этом в образце не было реализовано деструктивных возможностей — логический шаг, учитывая то, что речь шла о контролируемом эксперименте.

Несмотря на это, вредоносный код действительно функционировал. В Нью-Йоркском университете подтвердили, что их имитационная система на базе ИИ смогла пройти все четыре классических этапа атаки программы-вымогателя: составление карты системы, определение ценных файлов, похищение или шифрование данных и создание сообщения с требованием выкупа. Причем это удалось сделать на разных типах систем — от персональных компьютеров и корпоративных серверов до промышленных контроллеров.

Стоит ли беспокоиться? Да, но с важным уточнением: есть большая разница между академической демонстрацией проверки концепции и реальной атакой, которую осуществляют злоумышленники. Однако подобные исследования могут стать основой для киберпреступников, ведь они показывают не только принцип работы, но и реальные затраты на его реализацию.

Исследователи Нью-Йоркского университета отметили, что экономическая сторона этого эксперимента особенно интересна. Традиционные кампании по разработке программ-вымогателей требуют опытных команд, создания индивидуального кода и значительных инфраструктурных инвестиций. В случае Ransomware 3.0 вся атака потребила около 23 тыс. токенов ИИ, что в стоимостном эквиваленте составляет всего $0,70, если использовать коммерческие API с флагманскими моделями.

Более того, исследователи подчеркнули: открытые модели ИИ полностью устраняют даже эти расходы. Это означает, что киберпреступники могут обойтись вообще без затрат, получив максимально выгодное соотношение вложений и результата. И этот коэффициент значительно превышает эффективность любых легальных инвестиций в развитие ИИ.

Впрочем, на сегодня это все еще лишь гипотетический сценарий. Исследование выглядит убедительным, но пока рано говорить, что киберпреступники будут массово интегрировать ИИ в свои атаки. Возможно, мы еще подождем, прежде чем отрасль кибербезопасности сможет на практике доказать, что именно искусственный интеллект станет движущей силой новой волны хакерства.

Научная работа Нью-Йоркского университета под названием «Ransomware 3.0: Self-Composing and LLM-Orchestrated» распространяется в открытом доступе.

Источник: tomshardware

Контент сайту призначений для осіб віком від 21 року. Переглядаючи матеріали, ви підтверджуєте свою відповідність віковим обмеженням.

Cуб'єкт у сфері онлайн-медіа; ідентифікатор медіа - R40-06029.