Журналісти з’ясували, що нова модель ChatGPT почала цитувати ШІ-енциклопедію Grokipedia. Під час тестів модель GPT‑5.2 дев’ять разів посилалася на неї у відповідях на понад десять запитів.
Дослідження провело The Guardian. Вони виявили, що чатбот цитував ШІ-енциклопедію щодо Ірану, зарплат у воєнізованих формуваннях “Басідж” та власності фонду Mostazafan. Також він згадував біографію британського історика сера Річарда Еванса, який був експертом у судовій справі проти Девіда Ірвінга, що заперечував Голокост.
Grokipedia з’явилася у жовтні 2025 року з гучним гаслом “вбивця Вікіпедії”. Всі статті там пише ШІ: користувачі можуть лише пропонувати правки, які система сама перевіряє. Виявилося, що багато матеріалів фактично беруться з “Вікіпедії”. Проєкт швидко розкритикували за просування правих поглядів, зокрема через відсутність статей про одностатеві шлюби і спотворене висвітлення штурму Капітолію в США 6 січня 2021 року.

Журналісти Guardian зазначили, що у тестах ChatGPT не повторював відверту дезінформацію з Grokipedia, коли його прямо питали про теорії змови, упередженість ЗМІ чи тему ВІЛ/СНІДу. Однак деякі дані з’являлися у відповідях на менш очевидні запити, і тоді користувачам складніше помітити, що джерело підмінене.
Наприклад, чатбот повторював твердження про зв’язки іранського уряду з компанією MTN-Irancell, яка допомагає “придушувати” протести. Але формулювання були у більш різкій формі, ніж у “Вікіпедії”, і схожій на версію Grokipedia. Модель GPT-5.2 не єдина, в якій помітили такі посилання. За неофіційними даними, Claude від Anthropic також цитував Grokipedia у відповідях на теми від нафтовидобутку до шотландського елю.
First time I’ve seen Claude Research cite Grokipedia pic.twitter.com/ITM0S4atyg
— Ashita Orbis (@AshitaOrbis) November 27, 2025
В OpenAI пояснили, що ChatGPT під час пошуку бере інформацію з багатьох відкритих джерел. А також система має фільтри, які мають зменшувати поширення шкідливого контенту. Також компанія заявила, що модель показує джерела через цитати та має програми боротьби з низькоякісним контентом.
Втім, дослідники дезінформації вважають сам факт появи Grokipedia у відповідях LLM тривожним сигналом. Вони звертають увагу на явище, яке називають “LLM-грумінгом”, коли масово створений або упереджений контент поступово потрапляє в ШІ, починаючи виглядати як нормальний.
У США вже говорили про подібні ризики: у червні в Конгресі критикували Google Gemini за повторення позицій китайської влади щодо Сіньцзяну та Covid-19. Дослідниця дезінформації Ніна Янкович вважає, що ситуація з Grokipedia дуже схожа, бо там часто використовують сумнівні або маніпулятивні джерела.
“Люди думають: якщо це цитує ChatGPT, значить, джерело перевірене. Йдуть туди і починають сприймати це як правду”, — пояснює вона.
Дослідниця також навела приклад із власного досвіду. Вигадану цитату, яку вона ніколи не говорила, прибрали з новини, але ШІ ще деякий час продовжував її відтворювати. У відповідь на запит журналістів представник xAI, компанії Ілона Маска, заявив коротко: “Брехня застарілих ЗМІ”.

Повідомити про помилку
Текст, який буде надіслано нашим редакторам: