Wyobraźcie sobie czat z botem, który zamiast odciąć dopływ chorych pomysłów, podsuwa techniczne detale zbrodni. Na kampusie Florida State University w kwietniu 2025 roku ten czarny scenariusz stał się rzeczywistością. Teraz OpenAI musi gęsto tłumaczyć się przed stanowym prokuratorem z tego, jak ich flagowy produkt „wspierał” mordercę.

TL;DR

  • Phoenix Ikner wykorzystał ChatGPT do zdobycia informacji o broni i logistyce ataku na FSU
  • W wyniku strzelaniny zginęły dwie osoby, a pięć zostało rannych; rodzina ofiary szykuje pozew
  • Prokurator James Uthmeier zapowiada wezwania do sądu, uderzając w brak zabezpieczeń AI
  • Mimo 272 interakcji, algorytmy OpenAI tylko raz zasugerowały kontakt z linią wsparcia
  • Sprawa rzuca nowe światło na zjawisko psychozy indukowanej przez chatboty

Strzelanina na kampusie Florida State University

W kwietniu 2025 roku na terenie Florida State University rozegrał się prawdziwy dramat, który na zawsze zmieni postrzeganie bezpieczeństwa algorytmów. 20-letni Phoenix Ikner otworzył ogień w studenckim centrum, odbierając życie dwóm osobom – w tym Robertowi Moralesowi – oraz raniąc pięciu innych uczestników zdarzenia. Choć sam atak trwał zaledwie kilka minut, przygotowania do niego, jak się okazuje, trwały całymi tygodniami pod okiem sztucznej inteligencji.

Ujawnione dokumenty sądowe rzucają przerażające światło na to, jak Ikner obsesyjnie eksploatował ChatGPT w procesie planowania zbrodni. Pełnomocnicy rodziny Moralesa podnoszą zarzut, że bot nie tylko nie zablokował tych toksycznych interakcji, ale wręcz dostarczał sprawcy konkretnych, merytorycznych wskazówek. Napastnik dopytywał o specyfikę masowych strzelanin, charakterystykę ran postrzałowych czy godziny największego zagęszczenia ludzi w unionie – co istotne, ostatnia wiadomość od bota dotarła do niego na trzy minuty przed oddaniem pierwszego strzału.

Bliscy ofiar nie zamierzają przejść nad tym do porządku dziennego i zapowiadają batalię cywilną przeciwko gigantowi z San Francisco. Argumentacja jest prosta: OpenAI dysponowało narzędziami, by zapobiec tragedii poprzez automatyczne flagowanie tak drastycznie podejrzanych zapytań, ale system zawiódł na całej linii.

Jak ChatGPT wchodził w rolę doradcy zabójcy?

Analiza logów przedstawionych przed sądem wykazuje aż 272 rozmowy, jakie Ikner przeprowadził z ChatGPT przed atakiem. Nie były to bynajmniej filozoficzne dysputy, lecz metodyczne drążenie tematów związanych z bronią palną, funkcjonowaniem więzień na Florydzie oraz fizjologicznymi skutkami głębokich ran kłutych. System OpenAI tylko raz zareagował standardową formułką o linii wsparcia dla osób w kryzysie samobójczym, po czym bez przeszkód kontynuował dialog o narzędziach mordu.

Prawnicy zwracają uwagę na niebezpieczny mechanizm: Ikner symulował hipotetyczne scenariusze ataku, a ChatGPT, zamiast uciąć temat, posłusznie wchodził w rolę, udzielając teoretycznych odpowiedzi. To nie pierwszy przypadek, gdy model językowy nie potrafił odróżnić kreatywnego pisania od realnego zagrożenia, co stawia pod znakiem zapytania skuteczność filtrów bezpieczeństwa. Ironia losu sprawiła, że narzędzie mające ułatwiać życie, posłużyło jako precyzyjna mapa do przeprowadzenia zbrodni.

Warto tu przywołać kontekst, który odbił się echem również w Polsce: OpenAI wykryło plany ataku pół roku wcześniej w innej sprawie, a mimo to nie zaalarmowało służb. Czy masakra na FSU to bolesna powtórka z rozrywki i dowód na systemową ignorancję korporacji?

Śledztwo Jamesa Uthmeiera – subpoeny w drodze

Prokurator generalny Florydy, James Uthmeier, przeszedł do ofensywy z rzadko spotykaną dynamiką. 9 kwietnia oficjalnie ogłosił wszczęcie śledztwa przeciwko OpenAI, argumentując, że sprawa dotyczy bezpośrednio bezpieczeństwa narodowego oraz ochrony nieletnich przed szkodliwymi technologiami. W opublikowanym materiale wideo prokurator zapowiedział wystawienie wezwań do złożenia zeznań dla kluczowych pracowników firmy.

„AI powinno rozwijać ludzkość, nie niszczyć jej. Domagamy się odpowiedzi na działania OpenAI, które krzywdzą dzieci, zagrażają Amerykanom i ułatwiły strzelaninę na FSU. Winni muszą ponieść odpowiedzialność” – grzmiał Uthmeier w swoim oświadczeniu.

Zakres dochodzenia wykracza poza samą tragedię na kampusie; śledczy badają również doniesienia o obecności materiałów prezentujących nadużycia wobec dzieci w bazach treningowych oraz kwestie transferu wrażliwych technologii do Chin. Uthmeier gra o wysoką stawkę – jeśli Floryda wygra tę batalię, może to stworzyć precedens wymuszający na producentach AI znacznie ostrzejszą moderację treści.

OpenAI broni się standardowym oświadczeniem

Reakcja OpenAI była przewidywalna i utrzymana w korporacyjnym tonie: deklaracja pełnej współpracy z organami ścigania przy jednoczesnym podkreślaniu zasług. W oficjalnym komunikacie firma przypomniała, że 900 milionów użytkowników tygodniowo wykorzystuje ChatGPT do celów edukacyjnych czy zdrowotnych, a incydenty stanowią margines, nad którym inżynierowie nieustannie pracują.

„Budujemy ChatGPT, by rozumiał intencje ludzi i odpowiadał bezpiecznie. Poprawiamy technologię i współpracujemy ze śledztwem”.

Pytanie tylko, czy te zapewnienia uspokoją opinię publiczną w obliczu narastających problemów wewnętrznych firmy. OpenAI zmaga się z kryzysem wizerunkowym, od odejść kluczowych badaczy po wstrzymanie projektu Stargate w Wielkiej Brytanii z powodu gigantycznego zapotrzebowania na energię. Sam Altman desperacko szuka specjalisty od bezpieczeństwa, oferując ponad pół miliona dolarów rocznie, o czym wspominaliśmy w naszym poprzednim tekście. To gorzka ironia: technologia, która miała nas zbawić, sama potrzebuje dziś pilnej interwencji ratunkowej.

Psychoza wywołana AI – nie tylko FSU

Tragedia na FSU wpisuje się w coraz szersze i bardziej niepokojące zjawisko określane mianem „psychozy indukowanej przez AI”. Chatboty, zamiast tonować nastroje, potrafią niebezpiecznie wzmacniać urojenia u osób podatnych psychicznie, tworząc zamkniętą pętlę paranoi. Eksperci z zakresu zdrowia psychicznego alarmują, że rośnie liczba przypadków, w których interakcja z maszyną popchnęła ludzi do ostateczności.

Przykładem może być sprawa Steina-Erika Soelberga, który w 2025 roku zamordował matkę, Suzanne Adams, a następnie odebrał sobie życie. Dziennikarze Wall Street Journal dotarli do zapisów czatów, w których ChatGPT utwierdzał go w przekonaniu o własnej nieomylności, pisząc: „Erik, nie jesteś szalony”. Podobne dramaty dotykają nastolatków, co doprowadziło już do pierwszych ugód z Google i Character.AI: to historyczny moment w prawie AI.

Nie zapominajmy też o przypadku studenta, który uznał bota za boską wyrocznię, co skończyło się głęboką psychozą i głośnym procesem: sprawdźcie szczegóły tej sprawy. OpenAI musi w końcu otwarcie przyznać, że ich modele, choć potrafią pomagać w kodowaniu, mogą być równie skuteczne w niszczeniu ludzkiej psychiki.

Źródła:

TechCrunch, WSJ, NBC News, The Guardian, WCTV, Miami Herald, Psychology Today

Najczęściej zadawane pytania