Новости ИИ 29.10.2025 comment views icon

Поиск на базе искусственного интеллекта выбирает малоизвестные источники вместо популярных, — исследование

author avatar

Олександр Федоткін

Автор новостей и статей

Пошук на базі штучного інтелекту обирає маловідомі джерела замість популярних, — дослідження

Немецкие исследователи из Рурского университета и Института программных систем Общества Макса Планка выяснили, что поисковые системы на базе искусственного интеллекта чаще цитируют малоизвестные сайты, чем традиционные источники, такие как Google. 

Исследователи сравнили стандартные результаты поиска в Google с ответами AI Overviews, Gemini 2.5 Flash и двух вариантов веб-поиска GPT-4o. Результаты анализа показали, что ИИ чаще ссылаются на сайты с более низким рейтингом популярности. Во многих случаях эти источники не отображаются среди первой сотни результатов Google по тому же поисковому запросу. 

Ученые использовали ряд тестовых вопросов, включая те, которые реальные пользователи задавали ChatGPT во время общения, а также на политические темы и относительно самых популярных товаров на Amazon. По данным инструмента ранжирования доменов Tranco, источники, которые использовали системы на базе ИИ, ранжировались значительно ниже топ-результатов поисковых запросов в Google. Результаты Gemini имели медианный ранг домена выше первой тысячи.

Более половины источников, цитируемых AI Overviews, отсутствовали в первой десятке традиционных результатов. Около 40% — вообще не попали в первую сотню. Однако смещение в сторону малоизвестных источников, вероятно, не повлияло на качество информации. Модели на основе GPT часто цитировали корпоративные сайты и энциклопедический контент, избегая социальных сетей.

Исследование показало, что сгенерированные ИИ результаты поиска содержат примерно тот же набор информации, что и результаты традиционных поисковых запросов. Однако, поскольку модели на базе ИИ в основном обобщают информацию, а не ссылаются отдельно на каждый источник, большие объемы данных сжимаются в короткие ответы, что может привести к потере мелких деталей.

По словам исследователей, ИИ-системы также испытывают трудности с поиском срочных или стремительно меняющихся тем. Например, гибридный режим GPT-4o иногда не предоставлял самую актуальную информацию при ответе на запросы о недавних событиях или популярных темах.

Специалисты из университетов Софии, Цюриха, Стэнфорда и Карнеги-Меллона независимо подтвердили то, что пользователи замечали давно — большие языковые модели часто говорят то, что люди хотят услышать, даже когда это противоречит фактам или здравому смыслу. Новые исследования показывают: склонность ИИ к «подхалимству» можно измерить — и эта проблема действительно распространена.

Источник: GizmoChina
Що думаєте про цю статтю?
Голосів:
Файно є
Файно є
Йой, най буде!
Йой, най буде!
Трясця!
Трясця!
Ну такої...
Ну такої...
Бісить, аж тіпає!
Бісить, аж тіпає!
Loading comments...

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: