Wyobraź sobie lekarza, który leczy chroniczne zmęczenie, krótkowzroczność i bezpłodność jednym suplementem. Brzmi jak bajka? Dla ponad stu tysięcy Polaków na Instagramie to była prawda – dopóki nie wyszło szydło z worka. Dr Adrian Halewski to czysta fikcja z generatora sztucznej inteligencji, a jego historia pokazuje, jak łatwo AI buduje zaufanie i kasuje portfele.

Profil, który urzekł tłumy

Konto na Instagramie pod pseudonimem dr Adrian Halewski wystartowało z hukiem. Publikowało filmy, w których ten niby-lekarz opowiadał o pacjentach cudem wyleczonych dzięki shilajit – substancji znanej też jako mumio, pozyskiwanej z górskich skał Azji. Miał ponad 100 tysięcy obserwujących, którzy lajkami i komentarzami karmili algorytm. Ludzie pisali: czy po chemioterapii mogę brać? A na jaskrę pomoże? Halewski nie istniał w Centralnym Rejestrze Lekarzy Naczelnej Izby Lekarskiej – zero takiego nazwiska, zero prawa do praktyki.

Treści były mistrzowsko zrobione: syntetyczne nagrania wideo (tzw. deepfake) pokazywały faceta w kitlu, z poważną miną, opowiadającego historie sukcesu. Brak mrugania, sztywna mimika, niespójne oświetlenie – detale, które wyłapały influencerki Paulina Górska i Justyna Nater. One pierwsze zaalarmowały, że to fejk. Fact-checkerzy z Demagoga potwierdzili: konto wygenerowane przez sztuczną inteligencję, część międzynarodowej kampanii z podobnymi profilami po angielsku, włosku czy niemiecku.

Shilajit – cudowny proszek czy zwykły chwyt?

Halewski wciskał shilajit jako uniwersalne panaceum. Na zmęczenie chroniczne? Bierz. Krótkowzroczność? Poprawi wzrok. Bezpłodność? Rozwiąże problem. Suplement diety, nie lek, więc producent może obiecywać co chce, bez rygorystycznych badań klinicznych. W Polsce prawo zabrania przypisywać suplementom właściwości lecznicze – za to grozi grzywna, ograniczenie wolności albo więzienie. Ale kto sprawdza, kiedy „doktor” mówi z ekranu?

Mechanizm był prosty: pod filmami komentarze z prośbami o link do zakupu. Klik – i lądujesz w sklepie z shilajit za grubą kasę. Brak dowodów naukowych na te cuda; substancja ma fulwokwasy i minerały, ale nie leczy chorób. Oszuści liczyli na desperatów z przewlekłymi problemami, którzy odkładają wizytę u prawdziwego lekarza na rzecz magicznego proszku. Polska i czeska wersja konta zniknęły po demaskacji, ale inne działają dalej.

Dlaczego daliśmy się nabrać? Psychologia i algorytmy

Sukces profilu dr. Adriana Halewskiego to nie przypadek – to precyzyjnie zaprojektowana inżynieria społeczna. Wykorzystano tu efekt halo, gdzie profesjonalny wygląd „lekarza” rzutuje na wiarygodność jego medycznych bzdur.

W tle działała międzynarodowa maszyna do zarabiania pieniędzy. Raporty Demagoga ujawniają, że dr Halewski miał swoich „braci bliźniaków” w Niemczech, Włoszech i Czechach. Wszyscy mówili to samo, wszyscy kierowali do tego samego sklepu. AI pozwoliło oszustom na tzw. skalowanie kłamstwa – jeden skrypt, jeden wygenerowany awatar i zasięgi, o których prawdziwi lekarze mogą tylko pomarzyć.

Weryfikacja w rejestrach NIL czy analiza mikro-ruchów twarzy na deepfake’u to dziś konieczność, ale w starciu z emocjami przegrywamy. Dr Halewski udowodnił, że w 2026 roku AI nie musi być superinteligentne – wystarczy, że będzie wystarczająco przekonujące dla kogoś, kto bardzo chce wyzdrowieć.

Co dalej z AI w social mediach?

Sprawa dr. Adriana Halewskiego to zaledwie „demo” tego, co nadchodzi. Dzięki narzędziom takim jak Playground, stworzenie cyfrowego autorytetu zajmuje dziś mniej czasu niż wypisanie prawdziwej recepty. Oszuści nie potrzebują już aktorów ani studiów nagraniowych – AI generuje „eksperta” za darmo i na masową skalę.

Stoimy przed brutalną rzeczywistością:

  • Prawo jest bezsilne: podszywanie się pod lekarza to przestępstwo, ale jak ukarać algorytm ukryty za serią serwerów?
  • Platformy wybierają zysk: instagram karmi się zaangażowaniem, a nic nie klika się lepiej niż „cudowny lek”. Prawda przegrywa z algorytmem.

Wniosek? Chcieliśmy superinteligencji, a dostaliśmy armię cyfrowych naciągaczy w kitlach. Jeśli coś brzmi zbyt pięknie, by było prawdziwe – prawdopodobnie patrzysz na deepfake.