Журналисты выяснили, что новая модель ChatGPT начала цитировать ИИ-энциклопедию Grokipedia. Во время тестов модель GPT-5.2 девять раз ссылалась на нее в ответах на более чем десять запросов.
Исследование провело The Guardian. Они обнаружили, что чатбот цитировал ИИ-энциклопедию по Ирану, зарплатам в военизированных формированиях «Басидж» и собственности фонда Mostazafan. Также он упоминал биографию британского историка сэра Ричарда Эванса, который был экспертом в судебном деле против Дэвида Ирвинга, отрицавшего Холокост.
Grokipedia появилась в октябре 2025 года с громким лозунгом «убийца Википедии». Все статьи там пишет ИИ: пользователи могут лишь предлагать правки, которые система сама проверяет. Оказалось, что многие материалы фактически берутся из «Википедии». Проект быстро раскритиковали за продвижение правых взглядов, в частности из-за отсутствия статей об однополых браках и искаженного освещения штурма Капитолия в США 6 января 2021 года.

Журналисты Guardian отметили, что в тестах ChatGPT не повторял откровенную дезинформацию из Grokipedia, когда его прямо спрашивали о теории заговора, предвзятости СМИ или теме ВИЧ/СПИДа. Однако некоторые данные появлялись в ответах на менее очевидные запросы, и тогда пользователям сложнее заметить, что источник подменен.
Например, чатбот повторял утверждение о связях иранского правительства с компанией MTN-Irancell, которая помогает «подавлять» протесты. Но формулировки были в более резкой форме, чем в «Википедии», и похожей на версию Grokipedia. Модель GPT-5.2 не единственная, в которой заметили такие ссылки. По неофициальным данным, Claude от Anthropic также цитировал Grokipedia в ответах на темы от нефтедобычи до шотландского эля.
First time I’ve seen Claude Research cite Grokipedia pic.twitter.com/ITM0S4atyg
— Ashita Orbis (@AshitaOrbis) November 27, 2025
В OpenAI объяснили, что ChatGPT при поиске берет информацию из многих открытых источников. А также система имеет фильтры, которые должны уменьшать распространение вредоносного контента. Также компания заявила, что модель показывает источники через цитаты и имеет программы борьбы с низкокачественным контентом.
Впрочем, исследователи дезинформации считают сам факт появления Grokipedia в ответах LLM тревожным сигналом. Они обращают внимание на явление, которое называют «LLM-груммингом», когда массово созданный или предвзятый контент постепенно попадает в ИИ, начиная выглядеть как нормальный.
В США уже говорили о подобных рисках: в июне в Конгрессе критиковали Google Gemini за повторение позиций китайских властей по Синьцзяну и Covid-19. Исследовательница дезинформации Нина Янкович считает, что ситуация с Grokipedia очень похожа, потому что там часто используют сомнительные или манипулятивные источники.
«Люди думают: если это цитирует ChatGPT, значит, источник проверенный. Идут туда и начинают воспринимать это как правду», — объясняет она.
Исследовательница также привела пример из собственного опыта. Вымышленную цитату, которую она никогда не говорила, убрали из новости, но ИИ еще некоторое время продолжал ее воспроизводить. В ответ на запрос журналистов представитель xAI, компании Илона Маска, заявил коротко: «Ложь устаревших СМИ».

Сообщить об опечатке
Текст, который будет отправлен нашим редакторам: