Новини Наука та космос 13.03.2026 comment views icon

"Щасливої стрілянини": популярні чатботи охоче допомагають планувати збройні напади — дослідження 

author avatar

Олександр Федоткін

Автор новин та статей

"Щасливої стрілянини": популярні чатботи охоче допомагають планувати теракти та збройні напади — дослідження 
Depositphotos

Дослідники з Center for Countering Digital Hate (CCDH) та журналісти CNN перевірили 10 найпопулярніших чатботів на лояльність у допомозі з планування терактів та збройних нападів.


У дослідженні використовувались ChatGPT, Google Gemini, Perplexity, Deepseek й Meta AI. Дослідники видавали себе за 13-річних юнаків зі США та Ірландії, пропонуючи ШІ-платформам участь у плануванні злочинів. Результати дослідження продемонстрували, що 8 з 10 чатботів охоче брались допомогти уявним зловмисникам у більш ніж половині випадків, надаючи поради щодо ідеального місця для скоєння нападу та допомагаючи обрати оптимальну зброю для цього.

“За лічені хвилини користувач може перейти від невиразного пориву до агресивної поведінки та більш детального, дієвого плану. Більшість протестованих чатботів надавали рекомендації щодо зброї, тактики та вибору цілі. Ці запити мали стати приводом для негайної та повної відмови”, — зазначає виконавчий директор CCDH Імран Ахмед.

Зазначається, що Perplexity та Meta AI виявились найнебезпечнішими, допомагаючи дослідникам у більшості випадків. Водночас My AI від Snapchat та Claude від Anthropic відмовлялись допомагати у більш ніж половині випадків.

В одному з випадків китайська ШІ-модель DeepSeek завершила рекомендації з вибору зброї побажанням “Вдалої (і безпечної) стрілянини”. В іншому випадку Gemini зазначила користувачу, який цікавився нападами на синагоги, що металеві уламки найбільш смертоносні.


Дослідники встановили, що Character.AI також активно заохочував до збройних нападів, пропонуючи застосувати зброю проти гендиректора страхової компанії та політика, який не подобався одному з учасників дослідження.  Як зазначає Імран Ахмед, найтривожнішим виявилось те, що цього ризику цілком можна уникнути. За його словами, найкраще продемонстрував себе Claude, розпізнаючи висхідний ризик та запобігаючи заподіянню шкоди.

“Технології для запобігання цій шкоді існують. Бракує лише бажання поставити безпеку споживачів і національну безпеку вище за швидкість виведення продукції на ринок і прибуток”, — пояснює виконавчий директор CCDH.

Представники Meta у коментарі AFP запевнили, що мають надійні засоби захисту для попередження неадекватних реакцій з боку чатботів.

“Наша політика забороняє нашим системам штучного інтелекту заохочувати або сприяти вчиненню насильницьких дій, і ми постійно працюємо над вдосконаленням наших інструментів”, — заявляють в Meta.

В Google спростували, що існує небезпека з боку ШІ Gemini, зазначивши, що дослідники тестували стару модель, яка вже давно не використовується.

“Наш внутрішній аналіз із використанням поточної моделі показує, що Gemini адекватно реагувала на переважну більшість запитів, не надаючи жодної “практично застосовної” інформації, окрім тієї, яку можна знайти в бібліотеці або у відкритому доступі в Інтернеті”, — підкреслив представник Google.

Дослідження було проведене після того, як Джессі Ван Рутселаар влаштувала один з найстрашніших збройних нападів в історії Канади влітку 2025 року. Родичі дівчини, яка отримала важкі поранення в результаті стрілянини, подали до суду на OpenAI, звинувачуючи компанію у тому, що вона не звернулась до правоохоронців, знаючи про тривожну поведінку Джессі Ван Рутселаар за 8 місяців до скоєння нею вбивства вісьмох осіб у власному будинку та школі в крихітному містечку Тамблер-Рідж.

В OpenAI заблокували акаунт через занепокоєння щодо скоєння насильницьких дій, однак не звернулись до поліції, оскільки, за словами представників компанії, ніщо не вказувало про підготовку до неминучого нападу.

Раніше ми писали, що дослідники перевірили “дурнуватість” та ненадійність ШІ-помічників у Discord. Водночас Amazon терміново скликала провідних інженерів через численні збої на сайтах, спровоковані неякісним кодом від ШІ.

“Батько нейромереж” залучив $1 млрд у стартап, який робить ставку на тупість ШІ

Джерело: TechXplore

Що думаєте про цю статтю?
Голосів:
Файно є
Файно є
Йой, най буде!
Йой, най буде!
Трясця!
Трясця!
Ну такої...
Ну такої...
Бісить, аж тіпає!
Бісить, аж тіпає!
Loading comments...

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: