Wyobraź sobie, że dostajesz podejrzany kod QR od „dalekiego krewnego” z drugiego końca świata. Brzmi jak początek kiepskiego żartu? Meta nie zamierza czekać, aż dasz się nabrać – gigant właśnie uzbraja WhatsApp, Facebooka i Messengera w nowe narzędzia AI, które mają flagować takie pułapki w czasie rzeczywistym. Sprawdźmy, jak Mark Zuckerberg zamierza wyczyścić swoje platformy z cyfrowych naciągaczy.

TL;DR

  • W 2025 roku Meta usunęła rekordowe 159 milionów reklam promujących oszustwa
  • WhatsApp wprowadza inteligentne powiadomienia przed łączeniem kont z nieznajomymi z zagranicy
  • Facebook zacznie ostrzegać przed interakcją z nowymi profilami, które nie mają wspólnych znajomych
  • Messenger wykorzysta AI do skanowania rozmów pod kątem fałszywych ofert pracy i deepfake'ów celebrytów
  • Brak konkretnej daty globalnego wdrożenia sugeruje, że funkcje są w fazie testów

Skala problemu oszustw na platformach Meta

Platformy należące do Meta stały się prawdziwym eldorado dla naciągaczy – od fałszywych profili gwiazd, przez podszywanie się pod członków rodziny, aż po fikcyjne sklepy. Statystyki porażają: tylko w 2025 roku firma usunęła 159 milionów reklam o charakterze oszukańczym, a na samym WhatsAppie zlikwidowano blisko 7 milionów kont służących do przejmowania kontroli nad urządzeniami. To pokazuje, jak gigantyczna jest skala zjawiska, zwłaszcza gdy oszuści zaprzęgają do pracy treści generowane przez AI, by tworzyć łudząco prawdziwe strony i grafiki.

Przestępcy najczęściej celują w szybkie parowanie urządzeń zewnętrznych na WhatsApp, wyłudzając od ofiar kody dostępu lub skany QR. Meta doskonale wie, że ich największym sprzymierzeńcem jest pośpiech i impulsywność użytkownika, dlatego nowe mechanizmy stawiają na twardą prewencję. Mamy tu do czynienia z klasycznym wyścigiem zbrojeń: AI walczy z AI, bo naciągacze już teraz używają generatorów do tworzenia niemal perfekcyjnych podróbek rzeczywistości.

Oficjalne dane z bloga Meta nie pozostawiają złudzeń – problem przybiera na sile, co wymusiło globalne wdrożenie nowych systemów ochronnych.

Ostrzeżenia na WhatsApp przed przejmowaniem kont

WhatsApp to łakomy kąsek dla cyberprzestępców, głównie ze względu na funkcję łączenia urządzeń, która przy odrobinie nieuwagi ułatwia przejęcie konta. Scammerzy często odgrywają rolę krewnych w potrzebie lub kurierów, próbując wyłudzić kody autoryzacyjne. Nowa funkcja monitoruje interakcje z niepowiązanymi profilami i wyświetla ostrzegawczy popup, gdy np. wiadomość przychodzi z kraju, z którego nikt nigdy do nas nie pisał.

To rozwiązanie ma dać użytkownikowi bezcenną sekundę na refleksję – czy na pewno chcesz dać dostęp do swoich czatów komuś zupełnie obcemu? Przedstawiciele Meta podkreślają, że to bezpośrednia odpowiedź na powtarzalne schematy, takie jak prośby o numery telefonów w celu udostępnienia kodów. Ponad 7 milionów kont zablokowanych w ubiegłym roku to dowód na skuteczność dotychczasowych metod, ale teraz sztuczna inteligencja wchodzi na wyższy poziom analizy behawioralnej.

Zanim przejdziemy do listy kluczowych sygnałów ostrzegawczych, warto zaznaczyć, że system uczy się w czasie rzeczywistym na podstawie globalnych trendów:

  • zapytania pochodzące z nietypowych lokalizacji geograficznych,
  • pierwsza próba kontaktu z kontem bez żadnej wspólnej historii,
  • wywieranie presji czasu przy prośbach o kody QR lub linkowanie urządzeń.

Facebook i Messenger tropią podejrzane profile

Na Facebooku nowe alerty bezpieczeństwa będą nas atakować przy próbie dodania podejrzanego „znajomego” lub odpisania na zaczepkę od wątpliwego konta. Algorytmy analizują lokalizację użytkownika oraz brak punktów styku z Twoim kręgiem znajomych. Wyświetlany popup nie bawi się w dyplomację i wprost informuje: „to konto powstało kilka dni temu” – co jest prostą, ale skuteczną szpilką wbitą w tych, którzy bezrefleksyjnie akceptują każde zaproszenie.

Messenger idzie o krok dalej, wykorzystując AI do skanowania historii rozmów pod kątem znanych wzorców oszustw. System szuka ofert pracy z nierealnie wysokimi zarobkami, które zazwyczaj kończą się phishingiem, czyli próbą wyłudzenia danych do logowania. Szczególną uwagę poświęca się też fałszywym wizerunkom celebrytów i nieautoryzowanym wzmiankom o znanych osobach.

Obie aplikacje bazują na tych samych fundamentach: głębokiej analizie kontekstu, by zminimalizować liczbę fałszywych alarmów. Jak donosi TechCrunch, AI potrafi już wyłapywać w czatach z nowymi kontaktami konkretne frazy kluczowe dla „job offers”, które śmierdzą przekrętem na kilometr.

Jak AI Meta wykrywa fałszywe treści i phishing?

Meta stawia na autorskie modele językowe i wizualne do prześwietlania wszystkiego – od tekstu, przez zdjęcia, aż po wzmianki o markach. System potrafi zidentyfikować profile wygenerowane przez AI, strony phishingowe udające znane platformy oraz podejrzane odniesienia do osób publicznych. Serwis WIRED wspomina o całych sztabach specjalistów anty-scam, którzy karmią te detektory nowymi danymi.

To już nie jest zwykłe dopasowywanie wzorców, ale zaawansowana analiza kontekstowa obejmująca historię aktywności konta i przesyłane multimedia. Oszustwa wykorzystujące logotypy stworzone przez AI stają się coraz bardziej wyrafinowane, ale Meta odpowiada równie zaawansowaną technologią. Walka z AI slop nabiera tu nowego znaczenia.

Lista elementów pod lupą AI obejmuje:

  • zmanipulowane wizerunki celebrytów w prywatnych konwersacjach,
  • linki prowadzące do witryn wyłudzających dane,
  • schematy komunikacji typu „wysoko płatna praca zdalna”.

Obecnie phishing rośnie w siłę, ponieważ dzięki AI wygląda coraz bardziej profesjonalnie i wiarygodnie.

Prywatność w cieniu AI monitoringu

Wprowadzenie tak głębokiego monitoringu budzi oczywiste pytania o prywatność, a Meta tradycyjnie nie kwapi się do ujawniania szczegółów dotyczących przetwarzania i przechowywania danych. To może niepokoić, zwłaszcza jeśli przypomnimy sobie niedawne kontrowersje wokół AI w okularach AR. Użytkownicy mają prawo oczekiwać pełnej transparentności, gdy algorytmy zaczynają zaglądać do ich prywatnych wiadomości.

Korporacja zapewnia, że dostęp do treści służy wyłącznie wykrywaniu nadużyć, ale brak technicznych detali trąci typową dla giganta z Menlo Park polityką faktów dokonanych. Ironią jest fakt, że w imię ochrony przed oszustami, firma może naruszać sferę prywatną – pozostaje pytanie, czy to cena, którą jesteśmy gotowi zapłacić za bezpieczeństwo.

Proces wdrażania nie ma jeszcze sztywnej daty końcowej, co sugeruje, że Meta wciąż kalibruje swoje systemy. Redakcja The Verge zauważa, że choć to krok w dobrą stronę, to mechanizmy zabezpieczające przed nadużyciami ze strony samej platformy muszą być absolutnie szczelne.

Źródła: CNET, TechCrunch, oficjalny blog Meta (about.fb.com), WIRED, The Verge

Najczęściej zadawane pytania