Новости ИИ 26.01.2026 comment views icon

Новая модель ChatGPT использует Grokipedia Илона Маска в качестве источника

author avatar

Маргарита Юзяк

Автор новостей

Нова модель ChatGPT використовує Grokipedia Ілона Маска як джерело

Журналисты выяснили, что новая модель ChatGPT начала цитировать ИИ-энциклопедию Grokipedia. Во время тестов модель GPT-5.2 девять раз ссылалась на нее в ответах на более чем десять запросов.

Исследование провело The Guardian. Они обнаружили, что чатбот цитировал ИИ-энциклопедию по Ирану, зарплатам в военизированных формированиях «Басидж» и собственности фонда Mostazafan. Также он упоминал биографию британского историка сэра Ричарда Эванса, который был экспертом в судебном деле против Дэвида Ирвинга, отрицавшего Холокост.

Grokipedia появилась в октябре 2025 года с громким лозунгом «убийца Википедии». Все статьи там пишет ИИ: пользователи могут лишь предлагать правки, которые система сама проверяет. Оказалось, что многие материалы фактически берутся из «Википедии». Проект быстро раскритиковали за продвижение правых взглядов, в частности из-за отсутствия статей об однополых браках и искаженного освещения штурма Капитолия в США 6 января 2021 года.

Нова модель ChatGPT використовує Grokipedia Ілона Маска як джерело
ChatGPT / Depositphotos

Журналисты Guardian отметили, что в тестах ChatGPT не повторял откровенную дезинформацию из Grokipedia, когда его прямо спрашивали о теории заговора, предвзятости СМИ или теме ВИЧ/СПИДа. Однако некоторые данные появлялись в ответах на менее очевидные запросы, и тогда пользователям сложнее заметить, что источник подменен.

Например, чатбот повторял утверждение о связях иранского правительства с компанией MTN-Irancell, которая помогает «подавлять» протесты. Но формулировки были в более резкой форме, чем в «Википедии», и похожей на версию Grokipedia. Модель GPT-5.2 не единственная, в которой заметили такие ссылки. По неофициальным данным, Claude от Anthropic также цитировал Grokipedia в ответах на темы от нефтедобычи до шотландского эля.

В OpenAI объяснили, что ChatGPT при поиске берет информацию из многих открытых источников. А также система имеет фильтры, которые должны уменьшать распространение вредоносного контента. Также компания заявила, что модель показывает источники через цитаты и имеет программы борьбы с низкокачественным контентом.

Впрочем, исследователи дезинформации считают сам факт появления Grokipedia в ответах LLM тревожным сигналом. Они обращают внимание на явление, которое называют «LLM-груммингом», когда массово созданный или предвзятый контент постепенно попадает в ИИ, начиная выглядеть как нормальный.

В США уже говорили о подобных рисках: в июне в Конгрессе критиковали Google Gemini за повторение позиций китайских властей по Синьцзяну и Covid-19. Исследовательница дезинформации Нина Янкович считает, что ситуация с Grokipedia очень похожа, потому что там часто используют сомнительные или манипулятивные источники.

«Люди думают: если это цитирует ChatGPT, значит, источник проверенный. Идут туда и начинают воспринимать это как правду», — объясняет она.

Исследовательница также привела пример из собственного опыта. Вымышленную цитату, которую она никогда не говорила, убрали из новости, но ИИ еще некоторое время продолжал ее воспроизводить. В ответ на запрос журналистов представитель xAI, компании Илона Маска, заявил коротко: «Ложь устаревших СМИ».

Що думаєте про цю статтю?
Голосів:
Файно є
Файно є
Йой, най буде!
Йой, най буде!
Трясця!
Трясця!
Ну такої...
Ну такої...
Бісить, аж тіпає!
Бісить, аж тіпає!
Loading comments...

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: