Новини ШІ 26.01.2026 comment views icon

Нова модель ChatGPT використовує Grokipedia Ілона Маска як джерело

author avatar

Маргарита Юзяк

Авторка новин

Нова модель ChatGPT використовує Grokipedia Ілона Маска як джерело
Grokipedia / Depositphotos

Журналісти з’ясували, що нова модель ChatGPT почала цитувати ШІ-енциклопедію Grokipedia. Під час тестів модель GPT‑5.2 дев’ять разів посилалася на неї у відповідях на понад десять запитів.

Дослідження провело The Guardian. Вони виявили, що чатбот цитував ШІ-енциклопедію щодо Ірану, зарплат у воєнізованих формуваннях “Басідж” та власності фонду Mostazafan. Також він згадував біографію британського історика сера Річарда Еванса, який був експертом у судовій справі проти Девіда Ірвінга, що заперечував Голокост.

Grokipedia з’явилася у жовтні 2025 року з гучним гаслом “вбивця Вікіпедії”. Всі статті там пише ШІ: користувачі можуть лише пропонувати правки, які система сама перевіряє. Виявилося, що багато матеріалів фактично беруться з “Вікіпедії”. Проєкт швидко розкритикували за просування правих поглядів, зокрема через відсутність статей про одностатеві шлюби і спотворене висвітлення штурму Капітолію в США 6 січня 2021 року.

Нова модель ChatGPT використовує Grokipedia Ілона Маска як джерело
ChatGPT / Depositphotos

Журналісти Guardian зазначили, що у тестах ChatGPT не повторював відверту дезінформацію з Grokipedia, коли його прямо питали про теорії змови, упередженість ЗМІ чи тему ВІЛ/СНІДу. Однак деякі дані з’являлися у відповідях на менш очевидні запити, і тоді користувачам складніше помітити, що джерело підмінене.

Наприклад, чатбот повторював твердження про зв’язки іранського уряду з компанією MTN-Irancell, яка допомагає “придушувати” протести. Але формулювання були у більш різкій формі, ніж у “Вікіпедії”, і схожій на версію Grokipedia. Модель GPT-5.2 не єдина, в якій помітили такі посилання. За неофіційними даними, Claude від Anthropic також цитував Grokipedia у відповідях на теми від нафтовидобутку до шотландського елю.

В OpenAI пояснили, що ChatGPT під час пошуку бере інформацію з багатьох відкритих джерел. А також система має фільтри, які мають зменшувати поширення шкідливого контенту. Також компанія заявила, що модель показує джерела через цитати та має програми боротьби з низькоякісним контентом.

Втім, дослідники дезінформації вважають сам факт появи Grokipedia у відповідях LLM тривожним сигналом. Вони звертають увагу на явище, яке називають “LLM-грумінгом”, коли масово створений або упереджений контент поступово потрапляє в ШІ, починаючи виглядати як нормальний.

У США вже говорили про подібні ризики: у червні в Конгресі критикували Google Gemini за повторення позицій китайської влади щодо Сіньцзяну та Covid-19. Дослідниця дезінформації Ніна Янкович вважає, що ситуація з Grokipedia дуже схожа, бо там часто використовують сумнівні або маніпулятивні джерела.

“Люди думають: якщо це цитує ChatGPT, значить, джерело перевірене. Йдуть туди і починають сприймати це як правду”, — пояснює вона.

Дослідниця також навела приклад із власного досвіду. Вигадану цитату, яку вона ніколи не говорила, прибрали з новини, але ШІ ще деякий час продовжував її відтворювати. У відповідь на запит журналістів представник xAI, компанії Ілона Маска, заявив коротко: “Брехня застарілих ЗМІ”.

Що думаєте про цю статтю?
Голосів:
Файно є
Файно є
Йой, най буде!
Йой, най буде!
Трясця!
Трясця!
Ну такої...
Ну такої...
Бісить, аж тіпає!
Бісить, аж тіпає!
Loading comments...

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: