Кажется, у искусственного интеллекта тоже бывает «чёткое утро с запутанными ссылками» — и оно может начать цитировать энциклопедию, созданную другим ИИ. Guardian обнаружил, что недавно выпущенная OpenAI модель GPT‑5.2 в ряде тестов опиралась на Grokipedia — онлайн‑энциклопедию от xAI — при ответах на спорные вопросы о Иране и исторических спорах, связанных с Голокостом.

Ситуация получилась почти детективной: в одних запросах ChatGPT указывает Grokipedia как источник информации о предполагаемых связях телеком‑оператора MTN‑Irancell с определёнными структурами, в других — использует вовсе другие ссылки или вообще ограничивается молчанием о первоисточнике. Сам Grokipedia уже вызывал вопросы: исследователи и журналисты отмечали наличие сомнительных и даже экстремистских ссылок на отдельных страницах энциклопедии.

OpenAI в ответ на журналистское расследование подчеркнул, что GPT‑5.2 «ищет широкий спектр публично доступных источников и точек зрения» и использует фильтры безопасности, чтобы снизить риск появления материалов с высоким уровнем вреда. Звучит убедительно, но непоследовательность цитирования заставляет задуматься о двух вещах: как именно выбираются источники и кто отвечает за проверку фактов — модель или человек.

Это не просто спор инженеров — это напоминание для пользователей: искусственный интеллект — мощный инструмент, но он не заменяет привычки критически оценивать ссылки и контекст. Для профессиональной работы GPT‑5.2 обещает многое, но до полной прозрачности источников ещё далеко. Пусть ИИ и учится на энциклопедиях, а мы будем требовать от него ясных ссылок — и не забудем про чашку кофе и человеческое критическое мышление в придачу.