Немецкие исследователи из Рурского университета и Института программных систем Общества Макса Планка выяснили, что поисковые системы на базе искусственного интеллекта чаще цитируют малоизвестные сайты, чем традиционные источники, такие как Google.
Исследователи сравнили стандартные результаты поиска в Google с ответами AI Overviews, Gemini 2.5 Flash и двух вариантов веб-поиска GPT-4o. Результаты анализа показали, что ИИ чаще ссылаются на сайты с более низким рейтингом популярности. Во многих случаях эти источники не отображаются среди первой сотни результатов Google по тому же поисковому запросу.
Ученые использовали ряд тестовых вопросов, включая те, которые реальные пользователи задавали ChatGPT во время общения, а также на политические темы и относительно самых популярных товаров на Amazon. По данным инструмента ранжирования доменов Tranco, источники, которые использовали системы на базе ИИ, ранжировались значительно ниже топ-результатов поисковых запросов в Google. Результаты Gemini имели медианный ранг домена выше первой тысячи.
Более половины источников, цитируемых AI Overviews, отсутствовали в первой десятке традиционных результатов. Около 40% — вообще не попали в первую сотню. Однако смещение в сторону малоизвестных источников, вероятно, не повлияло на качество информации. Модели на основе GPT часто цитировали корпоративные сайты и энциклопедический контент, избегая социальных сетей.
Исследование показало, что сгенерированные ИИ результаты поиска содержат примерно тот же набор информации, что и результаты традиционных поисковых запросов. Однако, поскольку модели на базе ИИ в основном обобщают информацию, а не ссылаются отдельно на каждый источник, большие объемы данных сжимаются в короткие ответы, что может привести к потере мелких деталей.
По словам исследователей, ИИ-системы также испытывают трудности с поиском срочных или стремительно меняющихся тем. Например, гибридный режим GPT-4o иногда не предоставлял самую актуальную информацию при ответе на запросы о недавних событиях или популярных темах.
Специалисты из университетов Софии, Цюриха, Стэнфорда и Карнеги-Меллона независимо подтвердили то, что пользователи замечали давно — большие языковые модели часто говорят то, что люди хотят услышать, даже когда это противоречит фактам или здравому смыслу. Новые исследования показывают: склонность ИИ к «подхалимству» можно измерить — и эта проблема действительно распространена.

Сообщить об опечатке
Текст, который будет отправлен нашим редакторам: