Недавний анализ, проведенный ИИ-стартапом Oumi по заказу The New York Times, обнаружил, что сгенерированные искусственным интеллектом резюме AI Overviews, которые появляются над результатами поиска Google, являются точными примерно в 91% случаев.
В некотором смысле это может звучать как впечатляющая цифра. Но вот еще более впечатляющая: 5 триллионов. Это приблизительное количество поисковых запросов, которые Google обрабатывает каждый год, которое конвертируется в десятки миллионов неправильных ответов, которые AI Overviews предоставляют каждый час — и сотни тысяч ежеминутно, согласно расчетам анализа. Другими словами, Google создал кризис дезинформации.
Исследования показали, что люди склонны безоговорочно доверять тому, что говорит им ИИ; один отчет обнаружил, что только 8% пользователей фактически проверяли ответ ИИ. Другой эксперимент показал, что пользователи все равно слушали ИИ, когда тот давал им неправильный ответ, почти в 80% случаев — мрачная тенденция, которую исследователи назвали «когнитивной капитуляцией».
Большие языковые модели перенимают авторитетный тон и могут уверенно представлять вымышленную информацию как факт, когда не могут немедленно получить прямой ответ. Добавьте к этому удобство, которое предлагают AI Overviews от Google, и легко представить бесчисленное количество пользователей, которые принимают эти резюме на веру.
«Проблема с плохими AI Overviews заложена в самой их конструкции. Они разработаны для скорости, а не для точности, и это приводит к ошибкам в медицинской информации, которые могут быть опасными для жизни», — говорит Джина Нефф, профессор ответственного ИИ в Университете Королевы Мэри, для издания The Guardian.
Oumi провела анализ с помощью теста под названием SimpleQA — широко используемого в индустрии эталона точности ИИ, разработанного OpenAI. Первый раунд тестов, проведенный в октябре, использовал версию AI Overviews на базе модели Google Gemini 2. Следующая проверка в феврале протестировала функцию после того, как ее перевели на Gemini 3, ее разрекламированное обновление.
Каждый раунд тестов включал 4 326 поисковых запросов в Google. Gemini 3 оказалась более точной моделью, давая фактически обоснованный ответ в 91% случаев. Gemini 2 показала значительно худшие результаты — только 85% точности. С одной стороны, это показывает, что модели совершенствуются. С другой стороны, это говорит о том, что Google был готов навязать своей базе пользователей модель, которая была еще более склонна к галлюцинациям, в продолжающемся эксперименте, который до сих пор дезинформирует сотни миллионов людей. Google назвал анализ ошибочным.
«Это исследование имеет серьезные пробелы. Оно не отражает то, что люди на самом деле ищут в Google», — заявил репортерам NYT представитель Google Нед Адрианс.
Однако собственные тесты Google рисуют не менее сокрушительную картину, отмечается в отчете. В одном из внутренних анализов Gemini 3 было обнаружено, что ИИ-модель выдавала неправильную информацию в 28% случаев. Google, однако, утверждает, что AI Overviews являются более точными, поскольку они опираются на результаты поиска Google перед тем, как дать ответ.
Улучшение между Gemini 2 и Gemini 3 может маскировать более серьезный недостаток. В анализе Oumi Gemini 2 предоставляла ответы, которые были «необоснованными» в 37% случаев, что означает, что AI Overviews ссылались на веб-сайты, которые не подтверждали предоставленную ими информацию. Но с Gemini 3 этот показатель подскочил до 56%. Помимо того, что это указывает на то, что ИИ берет факты «с потолка», необоснованные ответы затрудняют для пользователей проверку утверждений ИИ.
«Google’s AI Overviews теперь сидят над каждой синей ссылкой. Читатели получают ответ. Они закрывают вкладку. Вы не получаете клика, просмотра рекламы или дохода. Это экзистенциальная угроза для издателей», — говорится в отчете коалиции журналов The Magazine Coalition, за апрель 2026 года.
Кроме рисков дезинформации, внедрение AI Overviews спровоцировало глубокий кризис в экосистеме цифровых медиа. Аналитические данные показывают, что появление ИИ-ответов над результатами поиска приводит к падению органического трафика для издателей на 30-60%, поскольку пользователи получают необходимую информацию непосредственно в Google, не переходя на первоисточники.
Это явление, известное как «нулевой клик», лишает медиа и независимых авторов рекламных доходов, ставя под угрозу существование нишевых ресурсов, которые годами создавали контент, на котором теперь обучаются эти самые модели. В частности, некоторые специализированные блоги уже сообщили о потере до 90% посетителей после глобального развертывания функции. Но есть и более опасная проблема.
«AI Overviews могут выдать список текстов жирным шрифтом, из-за чего читателям очень легко пропустить тот факт, что эти цифры могут быть даже не теми, что касаются их конкретного случая. Это фальшивое успокоение может нанести реальный вред здоровью», — рассказывает Памела Хили, исполнительный директор British Liver Trust, комментируя громкий кейс с ошибками ИИ в анализах крови.
Особое беспокойство вызывает избирательный подход алгоритмов к источникам: в большинстве случаев AI Overviews отдают предпочтение крупным агрегаторам, таким как Wikipedia, Reddit или YouTube, игнорируя меньшие, но более экспертные издания. Даже когда ИИ предоставляет фактически правильный ответ, отсутствие видимых ссылок на источники в первом экране просмотра создает иллюзию, что знания принадлежат самой корпорации Google.
Это не только подрывает экономику создателей контента, но и создает опасный интеллектуальный монополизм, где «усредненная» ответ нейросети становится единственной доступной истиной для миллиардов людей, вытесняя критическое мышление и разнообразие мнений.
Источник: Futurism

Сообщить об опечатке
Текст, который будет отправлен нашим редакторам: