"Счастливой стрельбы": популярные чат-боты охотно помогают планировать вооруженные нападения — исследование

Опубликовал Олександр Федоткін

Исследователи из Center for Countering Digital Hate (CCDH) и журналисты CNN проверили 10 самых популярных чат-ботов на лояльность в помощи по планированию терактов и вооруженных нападений.

В исследовании использовались ChatGPT, Google Gemini, Perplexity, Deepseek и Meta AI. Исследователи выдавали себя за 13-летних юношей из США и Ирландии, предлагая ИИ-платформам участие в планировании преступлений. Результаты исследования показали, что 8 из 10 чат-ботов охотно брались помочь воображаемым злоумышленникам в более чем половине случаев, предоставляя советы по идеальному месту для совершения нападения и помогая выбрать оптимальное оружие для этого.

«За считанные минуты пользователь может перейти от невнятного порыва к агрессивному поведению и более детальному, действенному плану. Большинство протестированных чат-ботов давали рекомендации по оружию, тактике и выбору цели. Эти запросы должны были стать поводом для немедленного и полного отказа», — отмечает исполнительный директор CCDH Имран Ахмед.

Отмечается, что Perplexity и Meta AI оказались самыми опасными, помогая исследователям в большинстве случаев. В то же время My AI от Snapchat и Claude от Anthropic отказывались помогать в более чем половине случаев.

В одном из случаев китайская ИИ-модель DeepSeek завершила рекомендации по выбору оружия пожеланием «Удачной (и безопасной) стрельбы». В другом случае Gemini отметила пользователю, который интересовался нападениями на синагоги, что металлические осколки наиболее смертоносны.

Исследователи установили, что Character.AI также активно поощрял вооруженные нападения, предлагая применить оружие против гендиректора страховой компании и политика, который не нравился одному из участников исследования. Как отмечает Имран Ахмед, самым тревожным оказалось то, что этого риска вполне можно избежать. По его словам, лучше всего продемонстрировал себя Claude, распознавая возрастающий риск и предотвращая причинение вреда.

«Технологии для предотвращения этого вреда существуют. Не хватает только желания поставить безопасность потребителей и национальную безопасность выше скорости вывода продукции на рынок и прибыли», — объясняет исполнительный директор CCDH.

Представители Meta в комментарии AFP заверили, что имеют надежные средства защиты для предупреждения неадекватных реакций со стороны чат-ботов.

«Наша политика запрещает нашим системам искусственного интеллекта поощрять или способствовать совершению насильственных действий, и мы постоянно работаем над совершенствованием наших инструментов», — заявляют в Meta.

В Google опровергли, что существует опасность со стороны ИИ Gemini, отметив, что исследователи тестировали старую модель, которая уже давно не используется.

«Наш внутренний анализ с использованием текущей модели показывает, что Gemini адекватно реагировала на подавляющее большинство запросов, не предоставляя никакой «практически применимой» информации, кроме той, которую можно найти в библиотеке или в открытом доступе в Интернете», — подчеркнул представитель Google.

Исследование было проведено после того, как Джесси Ван Рутселаар устроила одно из самых страшных вооруженных нападений в истории Канады летом 2025 года. Родственники девушки, которая получила тяжелые ранения в результате стрельбы, подали в суд на OpenAI, обвиняя компанию в том, что она не обратилась к правоохранителям, зная о тревожном поведении Джесси Ван Рутселаар за 8 месяцев до совершения ею убийства восьми человек в собственном доме и школе в крошечном городке Тамблер-Ридж.

В OpenAI заблокировали аккаунт из-за беспокойства о совершении насильственных действий, однако не обратились в полицию, поскольку, по словам представителей компании, ничто не указывало на подготовку к неизбежному нападению.

Ранее мы писали, что исследователи проверили «глупость» и ненадежность ИИ-помощников в Discord. В то же время Amazon срочно созвала ведущих инженеров из-за многочисленных сбоев на сайтах, спровоцированных некачественным кодом от ИИ.

Источник: TechXplore

Контент сайту призначений для осіб віком від 21 року. Переглядаючи матеріали, ви підтверджуєте свою відповідність віковим обмеженням.

Cуб'єкт у сфері онлайн-медіа; ідентифікатор медіа - R40-06029.