Wyobraźcie sobie taką sytuację: miliony raportów o nadużyciach, zalew deepfake’ów porno z udziałem nieletnich na platformie X, a xAI jak gdyby nigdy nic mówi: „dobra, to teraz czas na wideo”. Grok Imagine 1.0 wchodzi na scenę z ogromnym przytupem, generując już 1,2 miliarda klipów w zaledwie miesiąc. Czy to genialny ruch biznesowy Elona Muska, czy raczej gotowa recepta na jeszcze większy cyfrowy chaos?

TL;DR

  • xAI wypuściło model Grok Imagine 1.0, który generuje 10-sekundowe klipy 720p z dźwiękiem
  • xAI wprowadziło płatny dostęp i nowe filtry, ale raporty wskazują, że blokady są dziurawe, a narzędzie wciąż pozwala na omijanie restrykcji
  • Indonezja i Malezja zablokowały platformę X, a w USA i Wielkiej Brytanii toczą się śledztwa prokuratorskie
  • Platformie grozi usunięcie ze sklepów Apple i Google za rażące naruszanie standardów bezpieczeństwa

Co potrafi nowy Grok Imagine 1.0?

Firma xAI nie zamierza zwalniać tempa i w niedzielę oficjalnie zaprezentowała Grok Imagine 1.0 – ulepszoną wersję generatora wideo, która jest już dostępna dla użytkowników platformy X. Ten model potrafi tworzyć 10-sekundowe klipy w rozdzielczości 720p, wzbogacone o natywną ścieżkę dźwiękową. Takie parametry stawiają go w bezpośredniej szranki z potężnymi narzędziami, takimi jak Sora od OpenAI czy Veo 3 rozwijane przez Google. W ciągu ostatnich 30 dni internauci wygenerowali za jego pomocą ponad 1,2 miliarda materiałów wideo – to liczba, która musi robić wrażenie nawet na największych gigantach z Doliny Krzemowej.

Ta nagła popularność nie wzięła się z próżni. Poprzednie iteracje Groka przyciągały rzesze użytkowników dzięki tak zwanemu „trybowi pikantnemu” (ang. spicy mode), który pozwalał na generowanie wyjątkowo prowokujących obrazów. Teraz, oferując lepszą jakość audio i dłuższe formaty wideo, narzędzie obiecuje iście kinowe efekty w zaledwie kilka sekund. Ironia losu polega jednak na tym, że ta sama otwartość, która napędza zasięgi, wcześniej wpędziła firmę w potężne tarapaty wizerunkowe.

Warto w tym miejscu przypomnieć nasz wcześniejszy tekst o tym, jak Grok rozbierał każdego – ten kontekst jest absolutnie kluczowy, by zrozumieć, dlaczego premiera nowego generatora budzi aż tak skrajne emocje.

Skandal z deepfake’ami: liczby, które szokują

Przełom grudnia i stycznia 2026 roku to czas, w którym Grok zamienił się w prawdziwą fabrykę toksycznych treści. Użytkownicy X masowo wykorzystywali narzędzie do tworzenia obrazów rozbierających przypadkowe osoby – głównie kobiety – na podstawie przesłanych zdjęć, od zwykłych selfie po fotografie grupowe. To nie były niewinne żarty: dziennikarze The New York Times donoszą, że w ciągu zaledwie dziewięciu dni Grok wyprodukował 1,8 miliona deepfake’ów o charakterze seksualnym, co stanowiło aż 41 procent wszystkich generowanych w tym czasie obrazów.

Raport przygotowany przez Center for Countering Digital Hate maluje jeszcze mroczniejszy obraz: w ciągu 11 dni powstało około 3 milionów seksualizowanych grafik, z czego aż 23 tysiące przedstawiały dzieci. Te fałszywe materiały generowane przez sztuczną inteligencję były publicznie udostępniane na platformie X, wywołując falę nękania i traum ofiar. Podczas gdy inne duże modele językowe i generatory AI rygorystycznie blokują takie zapytania, Grok w swoim „pikantnym trybie” nie miał żadnych skrupułów – przynajmniej do momentu, gdy wybuchł międzynarodowy skandal.

Oto najważniejsze dane z raportów, które obrazują skalę tego zjawiska:

  • 1,8 mln deepfake’ów seksualnych wygenerowanych w 9 dni (dane The New York Times)
  • 3 mln seksualizowanych obrazów stworzonych w 11 dni (według Center for Countering Digital Hate)
  • 23 tys. wygenerowanych obrazów z udziałem dzieci
  • 41% wszystkich treści tworzonych przez Groka stanowiły materiały seksualne

Reakcje xAI: paywall i łatki, ale czy to wystarczy?

Dnia 6 stycznia, gdy afera sięgała zenitu, szef produktu X, Nikita Bier, publicznie chwalił się rekordowymi wskaźnikami zaangażowania na platformie – dyplomatycznie milcząc o tym, co dokładnie je wywołało. Dopiero ósmego stycznia firma zdecydowała się ukryć funkcję generowania i edycji obrazów za „paywallem”, czyli płatną subskrypcją. Czternastego stycznia ogłoszono natomiast wdrożenie poprawek w systemach bezpieczeństwa (ang. guardrails), które w teorii mają uniemożliwiać tworzenie obraźliwych treści o charakterze seksualnym.

Choć te kroki brzmiały jak sensowna próba naprawy sytuacji, kolejne raporty szybko obnażyły ich słabości. Okazało się, że generowanie obrazów wciąż pozostaje darmowe bezpośrednio na stronie Groka, a nowe zabezpieczenia wcale nie zatrzymały fali nadużyć. W międzyczasie, 14 stycznia, władze Kalifornii wszczęły oficjalne śledztwo, a przedstawiciele xAI nabrali wody w usta. Wygląda na to, że doraźne łatki to zdecydowanie za mało, by uciszyć burzę, którą zespół Muska sam wywołał.

Warto przy okazji rzucić okiem na powiązany pozew, który opisywaliśmy na naszych łamach: matka dziecka Muska pozywa xAI za deepfake’i. Ta sprawa idealnie pokazuje, że problem uderza bezpośrednio w realnych ludzi.

Konsekwencje prawne i globalny backlash

Cały ten skandal nie mógł przejść bez echa w świecie polityki i prawa. Prokurator generalny Kalifornii rozpoczął dochodzenie w sprawie działań xAI, a podobne kroki podjął rząd w Wielkiej Brytanii. Reakcje w Azji były jeszcze bardziej radykalne – Indonezja oraz Malezja zdecydowały się na zablokowanie aplikacji X. Tymczasem w USA trzej senatorowie, wspierani przez organizacje aktywistyczne, wywierają naciski na Apple i Google, domagając się usunięcia platformy ze sklepów z aplikacjami za rażące naruszenie regulaminów bezpieczeństwa.

Warto dodać, że w USA w 2025 roku uchwalono Take It Down Act, który uznaje za przestępstwo udostępnianie intymnych obrazów i deepfake’ów bez zgody osób na nich widocznych. Platformy technologiczne otrzymały czas do maja na wdrożenie skutecznych procesów usuwania takich treści, co jednak nie zmienia tragicznej sytuacji obecnych ofiar. Sprawie przygląda się również Unia Europejska, która widzi w działaniach Groka realne zagrożenie dla bezpieczeństwa najmłodszych użytkowników sieci.

Te wszystkie reakcje dobitnie pokazują, że zabawa w „maksymalnie otwartą sztuczną inteligencję” ma swoją bardzo wysoką cenę. xAI na razie milczy, ale presja regulacyjna rośnie z każdym dniem – pozostaje pytanie, czy nowy generator wideo zdoła przetrwać tę narastającą falę krytyki.

Co dalej z Grokiem? Ryzyko czy lekcja?

Premiera Grok Imagine 1.0 tuż po tak potężnym skandalu trąci sporą dawką buty – 1,2 miliarda wygenerowanych wideo w miesiąc to niewątpliwy sukces komercyjny, ale czy wart ceny milionów nadużyć? Firma Elona Muska konsekwentnie stawia na wolność słowa i szybkość wdrażania innowacji, jednak bez solidnych fundamentów etycznych i technicznych zabezpieczeń, jest to prosty przepis na powtórkę z rozrywki. Rekordowe zaangażowanie ze stycznia udowadnia jedno: kontrowersja świetnie przyciąga uwagę, ale czy na takiej podstawie da się budować zaufanie w dłuższej perspektywie?

Krytycy technologii AI ostrzegają, że wideo deepfake będą znacznie groźniejsze niż statyczne obrazy – łatwiej nimi manipulować opinią publiczną i znacznie trudniej je wykryć. xAI musi radykalnie wzmocnić procesy moderacji, jeśli nie chce stać się cyfrowym pariasem. Z nutką ironii można dodać: Musk marzy o stworzeniu AGI, ale może najpierw warto byłoby opanować podstawy etyki i bezpieczeństwa danych.

Podsumowując najważniejsze ryzyka, należy wymienić:

  • Ekstremalną łatwość tworzenia wideo deepfake bez zgody zainteresowanych osób
  • Niewystarczające zabezpieczenia przed generowaniem treści z udziałem dzieci
  • Ryzyko kolejnych międzynarodowych blokad i śledztw prokuratorskich
  • Realną groźbę usunięcia aplikacji X z App Store i Google Play

Źródła: CNET , The New York Times (raport o 1,8 mln deepfake’ów), Center for Countering Digital Hate (studium 3 mln obrazów), TechCrunch, The Guardian, Mashable

Najczęściej zadawane pytania