ШІ / Depositphotos
Онлайн-опросы — один из ключевых инструментов в социальных науках, политике и маркетинге — оказались на грани кризиса. Новое исследование доказывает: современные большие языковые модели способны настолько качественно имитировать поведение участников опросов, что стандартные системы защиты больше не работают.
Автор исследования, доцент Дартмутского колледжа и директор Polarization Research Lab Шон Вествуд, создал инструмент, который он называет «автономным синтетическим респондентом». Это ИИ-агент, отвечающий на опрос и демонстрирующий почти идеальную способность обходить самые современные методы обнаружения ботов. В исследовании он избегал фиксации в 99,8% случаев — фактически полная невидимость.
Вествуд прямо предупреждает:
«Мы больше не можем быть уверены, что ответы в опросах дают реальные люди. Если боты проникают в такие данные, ИИ может отравить всю экосистему знаний».
Традиционно исследователи используют контрольные вопросы, поведенческие индикаторы и анализ паттернов ответов, чтобы найти невнимательных людей или ботов. Но ИИ-агент Вествуда прошел все: от стандартных ACQ до методов, описанных в самых известных научных работах. Он также обходил «реверсивные шибболеты» — вопросы, которые компьютер одолеет легко, а человеку ответить сложно.
В работе подробно объясняется, как ИИ маскируется под человека. После выбора ответа система имитирует:
Еще одна особенность — агент может создавать согласованную демографическую персону. Это означает, что кто-то может массово влиять на результаты исследований, генерируя «участников» с нужным возрастом, образованием, политическими предпочтениями или этничностью.
Исследование показывает масштабы угрозы: для семи национальных опросов перед выборами 2024 года достаточно было добавить лишь 10-52 фейковых ответа, чтобы изменить прогнозируемый результат. И стоит это смешные деньги: $0,05 за ответ, тогда как человеку платят около $1,50.
Агент Вествуда создан на Python и является независимым от конкретной модели, поэтому работает как с API OpenAI, Anthropic или Googleтак и с локальными моделями вроде LLaMA. В тестах исследователь использовал OpenAI o4-mini, а также DeepSeek R1, Mistral Large, Claude 3.7 Sonnet, Grok3, Gemini 2.5 и другие — чтобы доказать универсальность технологии. Система получает один инструктивный промт примерно на 500 слов, в котором описано, какого «человека» она должна играть.
В статье перечисляются способы защиты, но все они имеют минусы. Можно усилить верификацию участников, но это сразу создает риски для приватности. Исследователям также советуют более открыто рассказывать о методах сбора данных и чаще использовать контролируемые способы рекрутинга — например, выборки по адресам или спискам избирателей.
Чтобы не потерять достоверность опросов, ученым придется перестроить подходы и создавать такие методики, которые выдержат конкуренцию с эпохой стремительно растущего ИИ.
Источник: 404media
Контент сайту призначений для осіб віком від 21 року. Переглядаючи матеріали, ви підтверджуєте свою відповідність віковим обмеженням.
Cуб'єкт у сфері онлайн-медіа; ідентифікатор медіа - R40-06029.