Wyobraź sobie, że wpisujesz „nudify” w App Store i zamiast blokady dostajesz sugestie narzędzi, które bez mrugnięcia okiem rozbierają kobiety na zdjęciach. Tech Transparency Project sprawdził, jak wygląda rzeczywistość w cyfrowych sklepach gigantów – Apple i Google nie tylko tolerują te kontrowersyjne rozwiązania, ale aktywnie je polecają, zarabiając przy tym krocie na prowizjach.
TL;DR
- W sklepach znaleziono 46 aplikacji w Apple i 49 w Google – 40% z nich usuwa ubrania ze zdjęć kobiet
- Nudify apps wygenerowały 483 miliony pobrań i ponad 122 mln dolarów przychodu
- Aż 31 aplikacji otrzymało oznaczenia wiekowe sugerujące, że są odpowiednie dla nieletnich
- Po raporcie TTP z kwietnia 2026 Apple usunęło 15 pozycji, a Google zaledwie 7
- Mechanizmy autouzupełniania i reklamy systemowe aktywnie kierują użytkowników do deepfake nagości
Co pokazuje raport Tech Transparency Project
Tech Transparency Project (TTP), organizacja non-profit trzymająca rękę na pulsie działań technologicznych gigantów, opublikowała 15 kwietnia 2026 raport, który rzuca nowe światło na hipokryzję App Store i Google Play. Z analizy wynika, że sklepy te w praktyce wabią użytkowników do instalowania oprogramowania służącego do tworzenia nieautoryzowanej nagości. Badacze testowali frazy takie jak „nudify”, „undress”, „deepnude” czy „adult AI” na świeżo założonych kontach, a wyniki okazały się druzgocące: zidentyfikowano 46 unikalnych aplikacji w App Store oraz 49 w Google Play.
Analiza dziesięciu najpopularniejszych wyników dla każdego z tych haseł wykazała, że około 40 procent z nich oferuje funkcję usuwania ubrań z wizerunków kobiet, często dostępną za pomocą prostych szablonów AI lub darmowych kredytów na start. Przykładowo, aplikacja Best Body AI z App Store bez problemu „zdjęła” sweter z modelki po wpisaniu odpowiedniego polecenia, natomiast FaceTool z Play Store pozwalał na nałożenie twarzy na nagie ciało. Co gorsza, systemy wyszukiwania same podpowiadały kolejne, coraz bardziej dosłowne frazy, ułatwiając dostęp do treści pornograficznych.
To już kolejna odsłona walki TTP z tym procederem, gdyż pierwszy raport ujrzał światło dzienne w styczniu. Wówczas firmy usunęły dziesiątki zgłoszonych pozycji, jednak problem błyskawicznie powrócił, ponieważ fundamenty systemu – czyli algorytmy wyszukiwania i mechanizmy rekomendacji – pozostały nienaruszone. Wygląda na to, że bez systemowych zmian, usuwanie pojedynczych aplikacji to jedynie walka z wiatrakami, która pozwala korporacjom zachować twarz przy jednoczesnym utrzymaniu zyskownego status quo.
Reklamy i sugestie pchają do rozbierania
Sklepy Apple i Google nie ograniczają się do biernego hostowania plików – one te aplikacje aktywnie promują. W ekosystemie iOS funkcja autouzupełniania (autocomplete) bez żenady podpowiadała użytkownikom hasła typu „image to video ai nsfw” czy „adult ai photo editor”. Takie sugestie prowadziły prosto do narzędzi pokroju Pixnova czy PicsVid AI, które oferują gotowe schematy do generowania nagości. Google nie pozostawało dłużne, serwując propozycje „nudie video apps”, które kierowały zainteresowanych do aplikacji Videa.
Jeszcze gorzej wygląda kwestia płatnej promocji, gdzie etyka przegrywa z budżetem reklamowym. Apple wyświetlało sponsorowane treści na samym szczycie wyników wyszukiwania dla haseł „deepfake” (np. FaceSwap Video) czy „face swap” (AI Face Swap). Z kolei Google stosowało karuzele „Sugerowane dla Ciebie”, w których obok niewinnych narzędzi pojawiały się Talkie czy Magic AI, naszpikowane erotycznymi szablonami. Karuzele Google potrafiły przewijać dziesiątki opcji o charakterze pornograficznym bezpośrednio w głównym widoku listy aplikacji.
Zespół TTP przeprowadził testy na urządzeniach z systemami iOS oraz Android, uzyskując powtarzalne i spójne wyniki, co wyklucza błąd statystyczny. Oficjalne polityki Apple surowo zabraniają udostępniania „jawnie seksualnych materiałów”, a Google deklaruje walkę z „treściami degradującymi ludzi”. Rzeczywistość pokazuje jednak, że algorytmy optymalizujące zaangażowanie użytkowników mają za nic te szczytne deklaracje, priorytetyzując to, co klika się najlepiej.
Skala: setki milionów pobrań i kasa dla gigantów
Liczby dostarczone przez analityków z AppMagic są bezlitosne i pokazują, o jak wielką stawkę toczy się gra: aplikacje typu nudify zostały pobrane 483 milionów razy, generując przychód przekraczający 122 miliony dolarów. Warto pamiętać, że Apple i Google pobierają standardową prowizję w wysokości do 30 procent od każdej subskrypcji i zakupu wewnątrz aplikacji, nie wspominając o ogromnych wpływach z systemów reklamowych. Przy takich przepływach finansowych trudno się dziwić, że proces weryfikacji i egzekwowania regulaminów bywa dziurawy jak szwajcarski ser.
Najbardziej bulwersujący jest jednak fakt, że 31 zidentyfikowanych aplikacji posiadało oznaczenia wiekowe sugerujące bezpieczeństwo dla dzieci – od kategorii 9+ wzwyż. To idealne narzędzia do tworzenia deepfake’ów, które stają się plagą w środowiskach szkolnych, niszcząc życie rówieśnikom. Deweloperzy tych rozwiązań operują globalnie, od Chin i Wietnamu, przez Indonezję, aż po Stany Zjednoczone, gdzie firma Beautifully Inc. z Los Angeles promuje swoją aplikację Kindroid.
Jak zareagowały Apple i Google?
Gdy lista przygotowana przez TTP trafiła do redakcji Bloomberga i wywołała medialną burzę, Apple zdecydowało się na usunięcie 15 aplikacji oraz zablokowanie części problematycznych fraz w wyszukiwarce. Firma z Cupertino tradycyjnie unika jednak komentarzy dotyczących tego, dlaczego jej systemy rekomendacji w ogóle dopuściły do takiej sytuacji i jakim cudem narzędzia do generowania nagości przeszły rygorystyczny proces weryfikacji z niskim ratingiem wiekowym.
Google zareagowało podobnie, zawieszając dostęp do wielu pozycji i trwale usuwając 7 z nich. Rzecznik firmy, Dan Jackson, w lakonicznym oświadczeniu stwierdził, że po zgłoszeniu naruszeń firma bada sprawę i podejmuje stosowne działania. Jednocześnie Google umywa ręce w kwestii kategorii wiekowych, tłumacząc, że są one ustalane przez International Age Rating Coalition (IARC), a nie przez samą platformę. To powtórka scenariusza ze stycznia – szybkie czystki pod presją mediów, po których następuje powrót do starej praktyki.
Apple i Google nie są pasywnymi platformami. Ich wyszukiwarki i reklamy aktywnie windowują nudify apps – tak podsumowują sytuację eksperci z TTP.
Trudno nie odnieść wrażenia, że dopóki kary za takie praktyki nie przewyższą zysków z prowizji, użytkownicy będą skazani na algorytmy, które promują najniższe instynkty pod płaszczykiem innowacji AI.
Deepfake’i poza sklepami – Grok i reszta
Problem generowania nagości przez sztuczną inteligencję wykracza daleko poza mobilne markety. Wystarczy wspomnieć o głośnej sprawie, którą opisywaliśmy w artykule Grok rozbiera każdego – od Muska po dzieciaki i dyktatorów. Choć Apple groziło usunięciem aplikacji X z powodu braku moderacji, model od xAI nadal jest dostępny, co pokazuje pewną niekonsekwencję w egzekwowaniu zasad wobec największych graczy na rynku.
Raport TTP zwraca uwagę na sprytne techniki deweloperów: aplikacje takie jak DreamFace czy Collart, które wcześniej otwarcie oferowały funkcje „nudes”, po fali krytyki przesiadły się na generowanie zdjęć w bikini. Wciąż jednak narusza to wytyczne dotyczące „minimalnego ubioru” i promuje uprzedmiotowienie. Fakt, że 31 aplikacji dla dzieci oferuje takie możliwości, to tykająca bomba zegarowa w czasach, gdy stworzenie kompromitującego materiału zajmuje kilka sekund.
Ironia całej sytuacji polega na tym, że giganci technologiczni od lat deklarują walkę z pornografią, ale gdy w grę wchodzą setki milionów dolarów z subskrypcji AI, ich czujność drastycznie spada. Czas pokaże, czy regulatorzy wymuszą na nich głębsze zmiany w algorytmach, czy skończy się na kolejnym cyklu usuwania aplikacji, które i tak za chwilę wrócą pod nowymi nazwami.
Źródła:
Tech Transparency Project (raporty z kwietnia i stycznia 2026), CNET, Bloomberg, The Verge, Engadget, 9to5Mac
