Sobota wczesny ranek, Donald Trump wrzuca na Truth Social bombę: amerykańskie wojska złapały prezydenta Wenezueli Nicolása Maduro i jego żonę Cilię Flores. W ciągu minut TikTok, Instagram i X kipią od „dowodów” – agentami DEA, helikopterami nad Caracas. No jasne, bo po co czekać na oficjalne fotki, skoro sztuczna inteligencja wygeneruje lepsze w pięć sekund.

Błyskawiczna fala kłamstw po ogłoszeniu Trumpa

Trump napisał dokładnie: „Stany Zjednoczone przeprowadziły szeroko zakrojoną akcję przeciwko Wenezueli i jej przywódcy, prezydentowi Nicolásowi Maduro, który wraz z żoną został schwytany i wywieziony z kraju”. Godzinę później prokurator generalna USA Pam Bondi ogłosiła oskarżenia: spisek narkoterrorystyczny, przemyt kokainy, posiadanie karabinów maszynowych i urządzeń niszczycielskich. W tym samym czasie sieć zalały stare nagrania z 2024 roku, udawane za świeże relacje z Caracas – od zrywania plakatów Maduro po rzekome ataki na stolicę.

Wpływowa pro-Trumpowa komentatorka Laura Loomer udostępniła wideo z plakatem, pisząc o ulicznych świętach po schwytaniu. Miało ponad 2 miliony wyświetleń na X, zanim usunęła post. Konto „Defense Intelligence” wrzuciło klip z TikToka z listopada 2025, prezentując go jako szturm na Caracas. Firmy jak X, Meta czy TikTok milczą w sprawie moderacji – od lat ograniczają wysiłki, co sprzyja takim akcjom dla lajków i followersów.

Sztuczna inteligencja produkuje „idealne” aresztowania

Najszybciej rozeszło się zdjęcie dwóch agentów DEA po bokach Maduro – klasyczny fejk. Stworzone przez sztuczną inteligencję narzędzie do generowania obrazów, szybko trafiło na wszystkie platformy. Na TikToku i Instagramie Ruben Dario wrzucił bazowe wersje, które ktoś przerobił na wideo z setkami tysięcy wyświetleń w godziny. Te animacje pokazują „aresztowanie” krok po kroku, prosto z pikseli.

Maduro złapany przez USA - fake photo
Maduro złapany przez USA – fake photo

 

Ironia losu? Chatbot Grok z X potwierdził fałsz, ale palnął bzdurę, że to przeróbka aresztowania meksykańskiego barona narkotyków Dámaso Lópeza Núñeza z 2017 roku. ChatGPT w ogóle zaprzeczał schwytaniu. Fact-checker David Puente pierwszy zgłosił fejka, ale fala już ruszyła – bo kto nie kliknie w sensacyjnego klipu?

SynthID demaskuje: niewidoczny znak wodny Google

Tu wkracza technologia SynthID od Google DeepMind – narzędzie do wykrywania treści generowanych lub edytowanych przez ich sztuczną inteligencję. Analiza przez chatbota Gemini pokazała: „Większość lub całość obrazu powstała za pomocą Google AI, wykryto znak wodny SynthID, niewidoczny cyfrowy sygnał wbudowany podczas tworzenia”. Działa nawet po kompresji czy cropie.

To nie pierwsza taka burza – podobne widzieliśmy po wojnie Izrael-Hamas w 2023 czy nalotach USA na irańskie instalacje nuklearne latem zeszłego. Dezinformacja mnoży zaangażowanie, a algorytmy to kochają. Wenezuela to kolejny test: ile fejków przetrwa, zanim platformy zareagują? Bo na razie cisza.

Co z tego wynika dla mediów społecznościowych?

Platformy od lat luzują moderację, co otwiera furtkę dla masowej dezinformacji. Wenezuela pokazuje skalę: od prostych recyclingu starych klipów po zaawansowane wideo z AI. Bez szybkich zabezpieczeń jak SynthID czy lepsze modele zagrożeń, każda wielka newsowa bomba skończy w morzu fikcji.

Moja analiza? To znak, że sztuczna inteligencja nie jest już gadżetem – to broń codziennego użytku. Platformy muszą inwestować w międzyzespołowe grupy do weryfikacji i testy symulujące ataki (tzw. red teaming), inaczej stracą wiarygodność. W 2026 roku scrollowanie to już pole minowe, a kotki na klawiaturach patrzą z politowaniem.

Źródła: Wired.com (https://www.wired.com/story/disinformation-floods-social-media-after-nicolas-maduros-capture/), BBC.com, CNN.com, Reuters.com, Truth Social (post Trumpa), X (posty i wyszukiwania semantyczne)