Wyobraź sobie wstrząsającą fotografię: rzędy świeżo wykopanych grobów dla 160 zamordowanych dziewczynek. Obraz ten błyskawicznie stał się symbolem brutalnego nalotu na szkołę w Minab. Tymczasem Gemini i Grok, z właściwą sobie pewnością siebie, ogłaszają światu: to ordynarny fejk skopiowany ze starych katastrof.

TL;DR

  • Fotografia grobów w Minab jest w pełni autentyczna, co potwierdzają dane satelitarne i nagrania wideo.
  • Model Gemini przypisuje zdjęcie Turcji (trzęsienie ziemi 2023), a Grok twierdzi, że to Indonezja z czasów COVID-19.
  • Eksperci z BBC Verify alarmują: blisko połowa krążącej w sieci dezinformacji to obecnie wytwory AI.
  • Aż 65% użytkowników polega na podsumowaniach AI, mimo że błędy w Gemini sięgają nawet 76%.
  • Współczesne modele językowe to jedynie maszyny probabilistyczne, a nie niezawodne detektory prawdy.

Co naprawdę pokazuje zdjęcie z Minab?

Na kadrze widzimy rzędy ponad 60 wykopanych mogił, a kolejne miejsca pod pochówek zostały już wyznaczone kredą na piaszczystej ziemi cmentarza w Minab, w południowym Iranie. To tragiczne przygotowania do pogrzebu ponad 100 młodych dziewczynek, które zginęły 2 marca 2026 roku w wyniku nalotu na szkołę podstawową Shajareh Tayyebeh. Fotografia błyskawicznie urosła do rangi symbolu cierpienia cywilów w konflikcie na linii USA-Izrael-Iran, ukazując koparki w pełnej gotowości i grupki pogrążonych w żałobie bliskich.

Materiał udostępniony przez irański departament mediów zagranicznych za pośrednictwem agencji Reuters momentalnie zdominował nagłówki. Obraz dokumentuje niewyobrażalną skalę dramatu: 165 ofiar śmiertelnych, w większości dzieci, co potwierdzają rzetelne raporty NYT oraz BBC. Ironia losu polega na tym, że w dobie wszechobecnej sztucznej inteligencji, zamiast weryfikować fakty u źródła, internauci rzucili się po odpowiedzi do chatbotów.

To jednak nie koniec dowodów – zdjęcia satelitarne oraz ujęcia wykonane z poziomu gruntu bezsprzecznie potwierdzają lokalizację, a szczegółowa analiza techniczna wykluczyła jakąkolwiek manipulację cyfrową.

Gemini i Grok w akcji: totalna pomyłka

Zapytany o pochodzenie fotografii, model Gemini od Google bez mrugnięcia okiem obwieszcza: to nie Iran, lecz masowe groby w Kahramanmaraş w Turcji, powstałe po trzęsieniu ziemi o sile 7,8 w skali Richtera z 2023 roku. AI serwuje przy tym rzekome „źródła”, które prowadzą donikąd – wspomniany raport nie istnieje, a wizualia kompletnie się nie zgadzają. Chatbot brnie jednak w zaparte, racząc nas detalami o „słynnej perspektywie lotniczej”.

Grok na platformie X odgrywa podobny spektakl, choć z nieco innym scenariuszem: według niego to cmentarz Rorotan w Dżakarcie, Indonezja, lipiec 2021 roku i stockowe zdjęcie ofiar pandemii COVID-19. On również podpiera się linkami do Reutersa, ale wystarczy chwila, by zauważyć, że perspektywa i detale terenu są zupełnie inne. Oba modele AI brzmią przy tym niezwykle autorytatywnie, sypiąc cytatami i datami, co jest podręcznikowym przykładem halucynacji. Nawet po próbie sprostowania, Gemini uparcie przeskakuje na wątki związane z Gazą lub pandemicznym Teheranem.

Jak zweryfikowano autentyczność?

Niezależni badacze zestawili zdjęcie z aktualnymi obrazami satelitarnymi z Google Earth oraz innymi ujęciami z tego samego miejsca – każdy element układanki pasuje do rzeczywistości. Surowe nagrania wideo z kamer naziemnych pokazują te same rzędy grobów, tłumy ludzi i absolutny brak śladów edycji w programach graficznych. Serwisy Snopes i Reuters potwierdzają: to świeże wykopy na wcześniej pustym polu, przygotowane specjalnie dla ofiar ataku z 28 lutego.

Nie mówimy tu o pojedynczym, przypadkowym kadrze – istnieją dziesiątki zdjęć wykonanych pod różnymi kątami oraz oficjalne raporty NPR i CNN dotyczące nalotu na szkołę sąsiadującą z bazą IRGC. Choć amerykańska administracja sprawdza obecnie, czy stare dane celownicze nie stały się przyczyną tragicznej pomyłki, autentyczność grobów nie podlega dyskusji. Tymczasem fact-checkerzy zamiast tropić realne manipulacje, muszą tracić cenne godziny na prostowanie bzdur wygenerowanych przez AI.

Fala niedorzeczności AI w wojnie Iranu

Groby to zaledwie wierzchołek góry lodowej – Tehran Times opublikował zdjęcie satelitarne rzekomo zniszczonego radaru USA w Katarze, które okazało się starą grafiką z Google Earth (samochody stały w identycznych pozycjach jak przed laty). W sieci krążą też „zdjęcia” ciała Chameniego wyciąganego z gruzów, gdzie ratownicy mają nadliczbowe kończyny, czy komendanta przebranego za kobietę w Teheranie – tło wygląda realistycznie, ale to czysty fejk.

Jednym z fejków, który zapadł mi w pamięć, było zdjęcie starszego irańskiego dowódcy chodzącego po Teheranie przebranego za kobietę, by uniknąć zamachu. – wspomina Shayan Sardarizadeh z BBC Verify.

Według jego zespołu obecnie połowa viralowych fejków to dzieło generatywnej sztucznej inteligencji, co stanowi ogromny wzrost względem konfliktów na Ukrainie czy w Gazie. Grok potrafi nawet pomylić pożary na bulwarze Koohsar z pożarami w Los Angeles z 2017 roku, ignorując fakt, że krajobraz na wideo drastycznie się różni.

Więcej o tym zjawisku przeczytasz w naszym tekście o fali AI-fejków o Maduro, który pokazuje, jak technologia ta jest wykorzystywana w globalnych konfliktach.

Dlaczego AI tak zawodzą jako fact-checkery?

Trzeba to sobie jasno powiedzieć: duże modele językowe (LLM), takie jak Gemini czy Grok, to jedynie zaawansowane maszyny probabilistyczne. Budują one zdania, dobierając kolejne słowa na podstawie statystycznego prawdopodobieństwa, a nie realnej analizy treści obrazu. Brzmią przy tym niezwykle pewnie, zmyślając źródła i raporty opatrzone konkretnymi datami, co usypia czujność użytkowników ufających „bezstronnemu” algorytmowi.

To bardzo zaawansowana maszyna probabilistyczna, nie pudełko z prawdą. – ostrzega Tal Hagin, analityk OSINT.

Z badań EBU przeprowadzonych w 2025 roku wynika, że co drugie podsumowanie generowane przez AI zawiera błędy merytoryczne, a w przypadku Gemini wskaźnik ten sięga aż 76%. Mimo to 65% ludzi regularnie czerpie newsy z AI, a popularność takich rozwiązań podwoiła się rok do roku.

Skutki są opłakane: czas ekspertów od weryfikacji jest marnowany, a prawdziwe tragedie są bagatelizowane jako „wygenerowane przez komputer”. W przypadku Minab, mimo że rakieta uderzająca w szkołę to najprawdopodobniej amerykański Tomahawk, „eksperci” spod znaku AI sugerują zupełnie inne scenariusze.

Źródła: The Guardian, Snopes, Wired, BBC Verify, Reuters, NYT, NPR

Najczęściej zadawane pytania