Рубрики НовиниШІ

Дослідник ШІ "зламав" усі онлайн-опитування: "автономний синтетичний респондент" обходить 99,8% спроб виявлення ботів

Опублікував Вадим Карпусь

Онлайн-опитування — один із ключових інструментів у соціальних науках, політиці й маркетингу — опинилися на межі кризи. Нове дослідження доводить: сучасні великі мовні моделі здатні настільки якісно імітувати поведінку учасників опитувань, що стандартні системи захисту більше не працюють.

Автор дослідження, доцент Дартмутського коледжу та директор Polarization Research Lab Шон Вествуд, створив інструмент, який він називає “автономним синтетичним респондентом”. Це ШІ-агент, що відповідає на опитування й демонструє майже ідеальну здатність обходити найсучасніші методи виявлення ботів. У дослідженні він уникав фіксації в 99,8% випадків — фактично повна невидимість.

Вествуд прямо попереджає:

“Ми більше не можемо бути впевнені, що відповіді в опитуваннях дають реальні люди. Якщо боти проникають у такі дані, ШІ може отруїти всю екосистему знань”.

Традиційно дослідники використовують контрольні питання, поведінкові індикатори й аналіз патернів відповідей, щоб знайти неуважних людей або ботів. Але ШІ-агент Вествуда пройшов усе: від стандартних ACQ до методів, описаних у найвідоміших наукових роботах. Він також обходив “реверсивні шибболети” — питання, які комп’ютер здолає легко, а людині відповісти складно.

У роботі детально пояснюється, як ШІ маскується під людину. Після вибору відповіді система імітує:

  • час читання, підлаштований під рівень освіти вигаданої “персони”;
  • рухи миші, схожі на справжні;
  • ввід тексту клавіатурою з характерними помилками та виправленнями;
  • обхід reCAPTCHA та інших антибот-захистів.

Ще одна особливість — агент може створювати узгоджену демографічну персону. Це означає, що хтось може масово впливати на результати досліджень, генеруючи “учасників” із потрібними віком, освітою, політичними вподобаннями чи етнічністю.

Дослідження показує масштаби загрози: для семи національних опитувань перед виборами 2024 року достатньо було додати лише 10–52 фейкові відповіді, щоб змінити прогнозований результат. І коштує це смішні гроші: $0,05 за відповідь, тоді як людині платять близько $1,50.

Агент Вествуда створений на Python і є незалежним від конкретної моделі, тому працює як із API OpenAI, Anthropic чи Google, так і з локальними моделями на кшталт LLaMA. У тестах дослідник використовував OpenAI o4-mini, а також DeepSeek R1, Mistral Large, Claude 3.7 Sonnet, Grok3, Gemini 2.5 та інші — щоб довести універсальність технології. Система отримує один інструктивний промт приблизно на 500 слів, у якому описано, яку “людину” вона має грати.

У статті перелічують способи захисту, але всі вони мають мінуси. Можна посилити верифікацію учасників, але це одразу створює ризики для приватності. Дослідникам також радять більш відкрито розповідати про методи збору даних і частіше використовувати контрольовані способи рекрутингу — наприклад, вибірки за адресами або списками виборців.

Щоб не втратити достовірність опитувань, науковцям доведеться перебудувати підходи та створювати такі методики, які витримають конкуренцію з епохою стрімко зростаючого ШІ.

Джерело: 404media

Контент сайту призначений для осіб віком від 21 року. Переглядаючи матеріали, ви підтверджуєте свою відповідність віковим обмеженням.

Cуб'єкт у сфері онлайн-медіа; ідентифікатор медіа - R40-06029.