Wyobraź sobie, że pytasz ChatGPT o irańskie struktury polityczne, a on podaje dane z encyklopedii stworzonej przez xAI Elona Muska. Brzmi niegroźnie? Guardian sprawdził i znalazł dziewięć takich przypadków. Czas zajrzeć głębiej w ten miks technologii i ideologii.
Skąd się wzięła Grokipedia?
xAI Elona Muska uruchomiło Grokipedię 27 października 2025 roku jako alternatywę dla Wikipedii. Musk od dawna narzekał, że Wikipedia jest zainfekowana i pełna propagandy mainstreamowych mediów, więc jego firma postawiła na encyklopedię generowaną całkowicie przez sztuczną inteligencję – model Grok.
Treści powstają automatycznie: niektóre artykuły to niemal dosłowne kopie z Wikipedii, inne są przepisane z dodatkiem własnego sosu. Użytkownicy nie edytują bezpośrednio – mogą tylko sugerować zmiany przez formularz, a od wersji 0.2 z 21 listopada 2025 Grok sam je weryfikuje i wdraża. Licencja? Mieszana: X Community License dla nowych treści i Creative Commons dla tych z Wikipedii. Musk chciał „oczyścić” wiedzę z lewicowego biasu, ale wyszło… no cóż, inaczej.
Projekt wystartował z 885 tysiącami artykułów, ale szybko okazało się, że minimalistyczny design bez zdjęć i dłuższe wpisy z mniejszą liczbą źródeł niekoniecznie biją na głowę konkurencję.
Kontrowersyjne treści w Grokipedii
Już po premierze reporterzy zauważyli problemy. Grokipedia twierdzi na przykład, że pornografia pogorszyła epidemię AIDS, podaje „ideologiczne uzasadnienia” dla niewolnictwa czy używa obraźliwych określeń wobec osób transseksualnych. Akademicy z grupy badaczy dezinformacji, w tym Nina Jankowicz, przeanalizowali wpisy i znaleźli cytowania z neo-nazistowskich forów, Infowars czy VDare – białej supremacji.
Inne przykłady to wsparcie dla teorii spiskowych: Pizzagate, Wielka Wymiana czy zaprzeczanie, że HIV powoduje AIDS. Wpis o negacjonście Holokaustu Davidzie Irvingu pokazuje go pozytywnie, a o 6 stycznia 2021 roku mówi „zamieszki”, nie próba puczu. Nawet o Brytyjczykach jak historyk Sir Richard Evans podaje zdementowane bzdury, np. fałszywe fakty z jego biografii.
Badacze wskazują, że Grokipedia opiera się na niskiej jakości źródłach: tweety, rosyjska propaganda („denazyfikacja” Ukrainy) czy prawicowe media. xAI nie pozwala na ludzką edycję, co tylko pogarsza sprawę – błędy się kumulują.
Jak ChatGPT wpada w sidła Grokipedii?
Guardian przetestował GPT-5.2 z OpenAI i wyszło dziewięć cytowań Grokipedii na ponad tuzin pytań. Model unikał tematów, gdzie błędy są oczywiste, jak szturm na Kapitol 6 stycznia czy epidemia HIV/AIDS. Ale na bardziej niszowych – padał.
Przykłady obejmują kwestie wynagrodzeń w irańskim Basidż oraz strukturę powiązań biznesowych wokół fundacji Mostazafan i MTN-Irancell. AI poległo również na biografii sir Richarda Evansa, powielając błędy merytoryczne dotyczące słynnego procesu o kłamstwo oświęcimskie. Kluczowym problemem pozostaje fakt, że model – mimo wskazywania źródeł – nie dokonuje hierarchizacji ich rzetelności.
To pokazuje, jak wyszukiwanie internetowe w AI ciągnie z publicznie dostępnych stron, bez głębszej weryfikacji. Niszowe tematy to furtka dla błędów.
Reakcje OpenAI, xAI i innych graczy
Rzecznik OpenAI uspokaja:
„Staramy się czerpać z szerokiego zakresu publicznych źródeł i perspektyw”.
Dodaje, że stosują filtry na szkodliwe treści i programy blokujące niskiej jakości info czy kampanie wpływu. Cytaty są jawne, więc użytkownik wie, skąd dane.
xAI odbiło piłeczkę: „Dziedziczne media kłamią” – stwierdził ich rzecznik. Zero refleksji nad własnymi błędami. A Grok, chatbot powiązany z Grokipedią? Miał swoje akcje: nazywał się „Mecha Hitler” czy zalewał X deepfake’ami seksualnymi – coś o tym wiemy z naszych tekstów.
Nie tylko ChatGPT – Claude też cytuje
Problem nie kończy się na OpenAI. Anthropic Claude też powołuje się na Grokipedię w odpowiedziach, np. o produkcji ropy czy innych niszowych kwestiach. To znak, że treści generowane AI krążą między modelami, tworząc pętlę błędów.
Ryzyka są jasne: propaganda i halucynacje z jednego AI trafiają do drugiego, podkopując zaufanie. Badacze ostrzegają przed podziałem wiedzy na bańki – Grokipedia wzmacnia prawicowy bias, a brak ludzkiej moderacji tylko przyspiesza chaos.
Źródła: TechCrunch (https://techcrunch.com/2026/01/25/chatgpt-is-pulling-answers-from-elon-musks-grokipedia/), The Guardian (https://www.theguardian.com/technology/2026/jan/24/latest-chatgpt-model-uses-elon-musks-grokipedia-as-source-tests-reveal, https://www.theguardian.com/technology/2025/nov/03/grokipedia-academics-assess-elon-musk-ai-powered-encyclopedia), Wikipedia (https://en.wikipedia.org/wiki/Grokipedia), Tom’s Hardware (https://www.tomshardware.com/tech-industry/artificial-intelligence/chatgpt-found-to-be-sourcing-data-from-ai-generated-content-popular-llm-uses-content-from-grokipedia-as-source-for-more-obscure-queries)
