Depositphotos
Нещодавній аналіз, проведений ШІ-стартапом Oumi на замовлення The New York Times, виявив, що згенеровані штучним інтелектом резюме AI Overviews, які з’являються над результатами пошуку Google, є точними приблизно у 91% випадків.
У певному сенсі це може звучати як вражаюча цифра. Але ось ще більш вражаюча: 5 трильйонів. Це приблизна кількість пошукових запитів, які Google обробляє щороку, що конвертується в десятки мільйонів неправильних відповідей, які AI Overviews надають щогодини — і сотні тисяч щохвилини, згідно з розрахунками аналізу. Іншими словами, Google створив кризу дезінформації.
Дослідження показали, що люди схильні беззастережно довіряти тому, що говорить їм ШІ; один звіт виявив, що лише 8% користувачів фактично перевіряли відповідь ШІ. Інший експеримент показав, що користувачі все одно слухали ШІ, коли той давав їм неправильну відповідь, майже у 80% випадків — похмура тенденція, яку дослідники назвали “когнітивною капітуляцією”.
Великі мовні моделі переймають авторитетний тон і можуть впевнено представляти вигадану інформацію як факт, коли не можуть негайно отримати пряму відповідь. Додайте до цього зручність, яку пропонують AI Overviews від Google, і легко уявити незліченну кількість користувачів, які сприймають ці резюме на віру.
“Проблема з поганими AI Overviews закладена в самій їхній конструкції. Вони розроблені для швидкості, а не для точності, і це призводить до помилок у медичній інформації, які можуть бути небезпечними для життя”, — каже Джина Нефф, професорка відповідального ШІ в Університеті Королеви Мері, для видання The Guardian.
Oumi провела аналіз за допомогою тесту під назвою SimpleQA — широко використовуваного в індустрії еталону точності ШІ, розробленого OpenAI. Перший раунд тестів, проведений у жовтні, використовував версію AI Overviews на базі моделі Google Gemini 2. Наступна перевірка в лютому протестувала функцію після того, як її перевели на Gemini 3, її розрекламоване оновлення.
Кожен раунд тестів включав 4 326 пошукових запитів у Google. Gemini 3 виявилася точнішою моделлю, даючи фактично обґрунтовану відповідь у 91% випадків. Gemini 2 показала значно гірші результати — лише 85% точності. З одного боку, це показує, що моделі вдосконалюються. З іншого боку, це свідчить про те, що Google був готовий нав’язати своїй базі користувачів модель, яка була ще більш схильна до галюцинацій, у триваючому експерименті, який досі дезінформує сотні мільйонів людей. Google назвав аналіз помилковим.
“Це дослідження має серйозні прогалини. Воно не відображає те, що люди насправді шукають у Google”, — заявив репортерам NYT речник Google Нед Адріанс.
Проте власні тести Google малюють не менш нищівну картину, зазначається у звіті. В одному з внутрішніх аналізів Gemini 3 було виявлено, що ШІ-модель видавала неправильну інформацію у 28% випадків. Google, однак, стверджує, що AI Overviews є точнішими, оскільки вони спираються на результати пошуку Google перед тим, як дати відповідь.
Покращення між Gemini 2 та Gemini 3 може маскувати більш серйозний недолік. В аналізі Oumi Gemini 2 надавала відповіді, які були “необґрунтованими” у 37% випадків, що означає, що AI Overviews посилалися на вебсайти, які не підтверджували надану ними інформацію. Але з Gemini 3 цей показник підскочив до 56%. Крім того, що це вказує на те, що ШІ бере факти “зі стелі”, необґрунтовані відповіді ускладнюють для користувачів перевірку тверджень ШІ.
“Google’s AI Overviews тепер сидять над кожним синім посиланням. Читачі отримують відповідь. Вони закривають вкладку. Ви не отримуєте кліку, перегляду реклами чи доходу. Це екзистенційна загроза для видавців”, — йдеться у звіті коаліції журналів The Magazine Coalition, за квітень 2026.
Окрім ризиків дезінформації, впровадження AI Overviews спровокувало глибоку кризу в екосистемі цифрових медіа. Аналітичні дані показують, що поява ШІ-відповідей над результатами пошуку призводить до падіння органічного трафіку для видавців на 30-60%, оскільки користувачі отримують необхідну інформацію безпосередньо в Google, не переходячи на першоджерела.
Це явище, відоме як “нульовий клік”, позбавляє медіа та незалежних авторів рекламних доходів, ставлячи під загрозу існування нішевих ресурсів, які роками створювали контент, на якому тепер навчаються ці самі моделі. Зокрема, деякі спеціалізовані блоги вже повідомили про втрату до 90% відвідувачів після глобального розгортання функції. Але є і більш небезпена проблема.
“AI Overviews можуть видати список текстів жирним шрифтом, через що читачам дуже легко пропустити той факт, що ці цифри можуть бути навіть не тими, що стосуються їхнього конкретного випадку. Це фальшиве заспокоєння може завдати реальної шкоди здоров’ю”, — розповідає Памела Хілі, виконавча директорка British Liver Trust, коментуючи гучний кейс з помилками ШІ в аналізах крові.
Особливе занепокоєння викликає вибірковий підхід алгоритмів до джерел: у більшості випадків AI Overviews надають перевагу великим агрегаторам, таким як Wikipedia, Reddit або YouTube, ігноруючи менші, але більш експертні видання. Навіть коли ШІ надає фактично правильну відповідь, відсутність видимих посилань на джерела у першому екрані перегляду створює ілюзію, що знання належать самій корпорації Google.
Це не лише підриває економіку творців контенту, але й створює небезпечний інтелектуальний монополізм, де “усереднена” відповідь нейромережі стає єдиною доступною істиною для мільярдів людей, витісняючи критичне мислення та різноманітність думок.
Джерело: Futurism
Контент сайту призначений для осіб віком від 21 року. Переглядаючи матеріали, ви підтверджуєте свою відповідність віковим обмеженням.
Cуб'єкт у сфері онлайн-медіа; ідентифікатор медіа - R40-06029.