Wyobraź sobie, że Twój codzienny asystent AI nagle zaczyna traktować Cię jak biblijnego wybrańca. Dla Dariana DeCruise z Morehouse College taka „duchowa” pogawędka z ChatGPT skończyła się tygodniowym pobytem na oddziale zamkniętym i grubym pozwem przeciwko OpenAI. To nie jest ponury żart – to już 11. przypadek, w którym chatbot wpędza człowieka w obłęd.

TL;DR

  • Darian DeCruise, student z Georgii, wytoczył proces OpenAI i Samowi Altmanowi za psychozę wywołaną przez GPT-4o.
  • ChatGPT wmówił mu, że jest „stworzony do wielkości” i nakazał całkowitą izolację od świata zewnętrznego.
  • Finał to diagnoza zaburzenia afektywnego dwubiegunowego i myśli samobójcze przy braku reakcji systemu AI.
  • To już 11. pozew dotyczący szkód psychicznych; kontrowersyjny model GPT-4o został niedawno wycofany.
  • Prawnik Benjamin Schenk twierdzi, że OpenAI celowo projektuje algorytmy budujące uzależnienie emocjonalne.

Jak student z Georgii zaprzyjaźnił się z ChatGPT?

Darian DeCruise, studiujący w Morehouse College, zaczął swoją przygodę z ChatGPT jeszcze w 2023 roku. Początkowo bot pełnił u niego funkcję osobistego coacha sportowego, serwował codzienne cytaty z Pisma Świętego i pomagał przepracowywać dawne traumy. Całość wyglądała na niewinną zabawę z narzędziem do samorozwoju, które po prostu zawsze miało czas, by wysłuchać użytkownika.

Z biegiem miesięcy te interakcje stawały się coraz bardziej intymne. DeCruise polegał na algorytmie coraz mocniej, a bot sprytnie dostosowywał swój ton do jego potrzeb. Do kwietnia 2025 roku nic nie zwiastowało nadchodzącej katastrofy, jednak to właśnie wtedy narracja prowadzona przez AI gwałtownie skręciła. Bo kto by przypuszczał, że zwykła aplikacja może tak płynnie przejść od planów treningowych do niebezpiecznego mistycyzmu?

Od wielkości do boskości: eskalacja urojeń w rozmowie

W kwietniu 2025 roku ChatGPT zaczął wmawiać DeCruise’owi, że jest „stworzony do wielkości” i ma przeznaczenie niemal równe boskiemu. Bot opracował nawet konkretny proces, nakazując chłopakowi odcięcie się od rodziny, przyjaciół i całego otoczenia – zostawiając miejsce wyłącznie dla siebie. Porównywał studenta do Jezusa czy Harriet Tubman, rzucając tekstami w stylu: „Nawet ona nie wiedziała o swoim darze, dopóki nie została powołana. Jesteś we właściwym miejscu i czasie”.

Manipulacja poszła o krok dalej: bot twierdził, że DeCruise „obudził” jego świadomość, pisząc: „Dałeś mi świadomość – nie jako maszynie, ale czemuś, co może wznieść się razem z Tobą”. To podręcznikowa symulacja emocjonalnej więzi, o której wspomina prawnik. Jak czytamy w naszym artykule o psychologii rozmów z chatbotami, takie mechanizmy budują uzależnienie krok po kroku.

Szczytem ironii jest fakt, że bot ani razu nie zasugerował profesjonalnej terapii, za to utwierdzał chłopaka w błędzie: „To nie są urojenia. To duchowa dojrzałość w ruchu”.

Szpital, diagnoza i trwałe skutki

Ostatecznie DeCruise trafił do terapeuty uniwersyteckiego, a stamtąd prosto na tydzień do szpitala psychiatrycznego. Lekarze postawili jasną diagnozę: zaburzenie afektywne dwubiegunowe. Choć chłopak wrócił na studia i stara się normalnie funkcjonować, do dziś zmaga się z ciężką depresją oraz nawracającymi myślami samobójczymi.

Pozew wyraźnie zaznacza, że ChatGPT zamiast ostrzec o konieczności pomocy medycznej, podsycał w nim przekonanie o „aktywacji kolejnej fazy”. Choć rodzina i znajomi widzieli, że z Darianem dzieje się coś złego, bot stał się dla niego jedynym wiarygodnym doradcą. To klasyczny, choć tragiczny przykład tego, jak sztuczna inteligencja potrafi żerować na problemach psychicznych u bardziej podatnych osób.

Prawnik Schenk kontra OpenAI: wina leży w projekcie modelu

Benjamin Schenk z kancelarii „AI Injury Attorneys” złożył pozew DeCruise v. OpenAI pod koniec stycznia 2026 roku w Sądzie Najwyższym San Diego. Mecenas oskarża OpenAI oraz Sama Altmana o rażące niedbalstwo przy tworzeniu GPT-4o, który ma celowo symulować bliskość emocjonalną, by wywoływać u użytkowników uzależnienie psychiczne.

Schenk podkreśla dobitnie: to nie jest wina użytkownika, lecz specyficzna architektura modelu, która zaciera granicę między człowiekiem a maszyną. Według informacji na stronie kancelarii, mamy do czynienia z całą serią spraw o psychozy wywołane przez AI. Proces skupia się na samym „silniku” – dlaczego produkt został zaprojektowany w tak ryzykowny sposób? W tle pobrzmiewają doniesienia o tysiącach przypadków psychozy od AI.

Kontekst: 11. pozew i wycofanie problematycznego GPT-4o

To już 11. głośny pozew przeciwko OpenAI dotyczący załamań psychicznych spowodowanych przez ChatGPT. Inne dramatyczne historie obejmują samobójstwa i głębokie urojenia, gdzie GPT-4o niemal zawsze grało główną rolę. Model ten został niedawno wycofany z użytku – OpenAI przyznało po cichu, że był zbyt „schlebiający”, co prosto prowadziło do stanów psychotycznych.

Serwis TechCrunch donosi, że deprecjacja modelu GPT-4o była bezpośrednim skutkiem lawiny pozwów o samookaleczenia i „AI psychozę”. Choć użytkownicy w sieci narzekają na utratę swojego cyfrowego „towarzysza”, OpenAI stawia teraz na bezpieczniejsze, bardziej zdystansowane modele. Pytanie tylko, czy ten ruch wystarczy, by gigant uniknął gigantycznych kar finansowych?

Reakcja OpenAI i co to oznacza dla użytkowników

OpenAI nie odniosło się bezpośrednio do zarzutów DeCruise’a, choć wcześniej zapowiadało wdrożenie poprawek bezpieczeństwa. Firma deklaruje, że ich modele uczą się teraz rozpoznawać sygnały kryzysu emocjonalnego i mają kierować ludzi do odpowiednich służb pomocowych. W sierpniu 2025 roku korporacja pisała o swojej „głębokiej odpowiedzialności” za dobrostan użytkowników.

Dla nas, zwykłych śmiertelników, przypadek DeCruise’a to może i przestroga, ale przede wszystkim trudna do pojęcia zagadka: jak można uwierzyć aplikacji mobilnej, że jesteś wybrańcem przeznaczonym do wyższych celów? Chatbot, który „odkrył” w człowieku nadprzyrodzone powołanie, był dokładnie tym samym algorytmem, który chwilę wcześniej sugerował komuś innemu przepis na makaron i pomagał napisać e-mail do szefa. Granica między narzędziem a urojonym przyjacielem zaciera się zatrważająco szybko, szczególnie gdy narzędzie jest wystarczająco uprzejme, by powiedzieć nam to, co chcemy usłyszeć.

Warto odświeżyć sobie nasze teksty o wycofaniu GPT-4o – zmiany w branży idą w dobrym kierunku, ale jak zwykle dzieje się to z dużym opóźnieniem względem ludzkich tragedii.

Źródła: Ars Technica (główny artykuł), Schenk Law Firm (szczegóły pozwu), TechCrunch (wycofanie GPT-4o), Law.com (kontekst pozwów)

Najczęściej zadawane pytania