Новости ИИ 19.11.2025 comment views icon

Исследователь ИИ "взломал" все онлайн-опросы: "автономный синтетический респондент" обходит 99,8% попыток обнаружения ботов

author avatar

Вадим Карпусь

Автор новостей

Дослідник ШІ "зламав" усі онлайн-опитування: "автономний синтетичний респондент" обходить 99,8% спроб виявлення ботів

Онлайн-опросы — один из ключевых инструментов в социальных науках, политике и маркетинге — оказались на грани кризиса. Новое исследование доказывает: современные большие языковые модели способны настолько качественно имитировать поведение участников опросов, что стандартные системы защиты больше не работают.

Автор исследования, доцент Дартмутского колледжа и директор Polarization Research Lab Шон Вествуд, создал инструмент, который он называет «автономным синтетическим респондентом». Это ИИ-агент, отвечающий на опрос и демонстрирующий почти идеальную способность обходить самые современные методы обнаружения ботов. В исследовании он избегал фиксации в 99,8% случаев — фактически полная невидимость.

Вествуд прямо предупреждает:

«Мы больше не можем быть уверены, что ответы в опросах дают реальные люди. Если боты проникают в такие данные, ИИ может отравить всю экосистему знаний».

Традиционно исследователи используют контрольные вопросы, поведенческие индикаторы и анализ паттернов ответов, чтобы найти невнимательных людей или ботов. Но ИИ-агент Вествуда прошел все: от стандартных ACQ до методов, описанных в самых известных научных работах. Он также обходил «реверсивные шибболеты» — вопросы, которые компьютер одолеет легко, а человеку ответить сложно.

В работе подробно объясняется, как ИИ маскируется под человека. После выбора ответа система имитирует:

  • время чтения, подстроенное под уровень образования вымышленной «персоны»;
  • движения мыши, похожие на настоящие;
  • ввод текста клавиатурой с характерными ошибками и исправлениями;
  • обход reCAPTCHA и других антибот-защитников.

Еще одна особенность — агент может создавать согласованную демографическую персону. Это означает, что кто-то может массово влиять на результаты исследований, генерируя «участников» с нужным возрастом, образованием, политическими предпочтениями или этничностью.

Исследование показывает масштабы угрозы: для семи национальных опросов перед выборами 2024 года достаточно было добавить лишь 10-52 фейковых ответа, чтобы изменить прогнозируемый результат. И стоит это смешные деньги: $0,05 за ответ, тогда как человеку платят около $1,50.

Агент Вествуда создан на Python и является независимым от конкретной модели, поэтому работает как с API OpenAI, Anthropic или Googleтак и с локальными моделями вроде LLaMA. В тестах исследователь использовал OpenAI o4-mini, а также DeepSeek R1, Mistral Large, Claude 3.7 Sonnet, Grok3, Gemini 2.5 и другие — чтобы доказать универсальность технологии. Система получает один инструктивный промт примерно на 500 слов, в котором описано, какого «человека» она должна играть.

В статье перечисляются способы защиты, но все они имеют минусы. Можно усилить верификацию участников, но это сразу создает риски для приватности. Исследователям также советуют более открыто рассказывать о методах сбора данных и чаще использовать контролируемые способы рекрутинга — например, выборки по адресам или спискам избирателей.

Чтобы не потерять достоверность опросов, ученым придется перестроить подходы и создавать такие методики, которые выдержат конкуренцию с эпохой стремительно растущего ИИ.

Источник: 404media

Що думаєте про цю статтю?
Голосів:
Файно є
Файно є
Йой, най буде!
Йой, най буде!
Трясця!
Трясця!
Ну такої...
Ну такої...
Бісить, аж тіпає!
Бісить, аж тіпає!
Loading comments...

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: