Wyobraźcie sobie sytuację, w której algorytmy OpenAI wyłapują użytkownika szczegółowo opisującego scenariusze strzelanin, ale firma kwituje to krótkim: banujemy, policji nie wołamy. Pół roku później ta sama osoba odbiera życie ośmiu osobom w sielankowym kanadyjskim miasteczku. Czy korporacyjny próg ryzyka był zawieszony zbyt wysoko, czy to po prostu chłodna kalkulacja prawników?
TL;DR
- OpenAI zablokowało konto Jesse Van Rootselaar w czerwcu 2025 roku za promowanie treści przemocowych
- Firma analizowała zgłoszenie sprawy do kanadyjskiej policji RCMP, lecz uznała, że brak jest bezpośredniego zagrożenia
- Po masakrze w Tumbler Ridge OpenAI przekazało dane śledczym i wystosowało oficjalne kondolencje
- Sprawczyni z historią problemów psychicznych stworzyła wcześniej cyfrowy symulator strzelanin
- W brutalnym ataku zginęło osiem osób, w tym pięcioro uczniów w wieku zaledwie 12-13 lat
Masakra w Tumbler Ridge – mroczne szczegóły tragedii
W niewielkiej miejscowości Tumbler Ridge, zamieszkanej przez 2700 osób w sercu kanadyjskich Gór Skalistych, rozegrał się dramat, który zapisał się jako jedna z najkrwawszych strzelanin w historii kraju. Osiemnastoletnia Jesse Van Rootselaar rozpoczęła swój rajd od zamordowania matki i ojczyma w domu, po czym skierowała się do lokalnej szkoły. Na miejscu zginęła 39-letnia asystentka nauczyciela oraz pięcioro uczniów w wieku 12-13 lat, zanim napastniczka sama odebrała sobie życie strzałem z broni palnej.
Przedstawiciele Royal Canadian Mounted Police potwierdzili, że Van Rootselaar była już wcześniej znana służbom w związku z interwencjami dotyczącymi jej zdrowia psychicznego. Choć motyw zbrodni pozostaje zagadką, wiadomo, że dziewczyna zaprojektowała wcześniej symulator strzelanin na popularnej platformie gamingowej. To najbardziej tragiczny incydent od czasu masakry w Nowej Szkocji z 2020 roku, gdzie życie straciły 22 osoby – gorzka ironia losu sprawiła, że w dobie wszechobecnej AI takie dramaty wciąż dotykają najbardziej odizolowane zakątki świata.
Osiem ofiar śmiertelnych, w tym bezbronne dzieci, to bilans, który wstrząsnął całą Kanadą i na nowo otworzył debatę o dostępie do broni oraz wsparciu psychologicznym w małych społecznościach.
Jak algorytmy OpenAI namierzyły konto Van Rootselaar?
W czerwcu 2025 roku systemy monitorujące nadużycia w OpenAI wytypowały konto należące do Jesse Van Rootselaar jako niebezpieczne. Użytkowniczka generowała treści opisujące brutalne scenariusze z użyciem broni palnej, co moderatorzy zakwalifikowali jako jawne promowanie aktywności przemocowych. Nie były to jedynie literackie wprawki – generowane teksty zdradzały realną fascynację przemocą, choć dokładny zapis tych rozmów nie trafił do domeny publicznej.
Reakcja firmy była teoretycznie wzorcowa: konto natychmiast zbanowano za złamanie regulaminu świadczenia usług. Jak donosi Wall Street Journal, wewnątrz OpenAI rozbrzmiały dzwonki alarmowe, a pracownicy sygnalizowali powagę sytuacji. Ostatecznie jednak postąpiono zgodnie ze standardowym protokołem, czyli po prostu odcięto dostęp do narzędzia. W końcu ChatGPT obsługuje miliony ludzi każdego dnia i trudno zakładać, że każdy, kto pyta o strzelaninę, zamierza ją faktycznie przeprowadzić.
Czerwiec 2025 roku był momentem, w którym zapadła decyzja o blokadzie – dokładnie pół roku przed tym, jak padły pierwsze strzały.
Próg ryzyka – dlaczego nikt nie zadzwonił po policję?
Zarząd OpenAI faktycznie rozważał przekazanie raportu do Royal Canadian Mounted Police, jednak ostatecznie odłożono ten pomysł na półkę. Kluczowy okazał się wewnętrzny próg interwencji: firma zgłasza sprawę służbom tylko wtedy, gdy zidentyfikuje bezpośrednie i wiarygodne ryzyko wystąpienia poważnego zagrożenia fizycznego dla osób trzecich. W przypadku aktywności Van Rootselaar uznano, że brakuje konkretnego planu działania „tu i teraz” – nie było dat, miejsc ani pilnych zamiarów.
Z perspektywy korporacyjnej taka polityka ma chronić policję przed zalewem zgłoszeń dotyczących internetowych trolli, memów czy twórczości fanowskiej. OpenAI stara się unikać roli globalnego cenzora, skupiając się na filtracji najbardziej drastycznych przypadków. Niemniej patrząc wstecz – mając sześć miesięcy wyprzedzenia i nie wykonując ani jednego telefonu – można odnieść wrażenie, że system zawiódł. Firma twardo stoi przy stanowisku, że ich zasady są spójne, choć ta tragedia brutalnie obnaża granice automatycznej moderacji.
Bezpośrednie i wiarygodne ryzyko to specyficzny warunek, którego aktywność zbanowanej użytkowniczki według analityków nie spełniła.
Reakcja po tragedii i systemowe wyzwania
Kiedy informacja o masakrze obiegła media, OpenAI zareagowało błyskawicznie – przedstawiciele firmy sami skontaktowali się z RCMP, oferując pełną dokumentację dotyczącą konta i historii zapytań w ChatGPT. Rzeczniczka prasowa oświadczyła: „Łączymy się w bólu z rodzinami ofiar tragedii w Tumbler Ridge. Proaktywnie udostępniliśmy dane Royal Canadian Mounted Police i deklarujemy pełną współpracę w śledztwie”. To gest godny pochwały, choć trudno nie odnieść wrażenia, że to gaszenie pożaru, gdy dom już spłonął.
Cała sytuacja rzuca nowe światło na gigantyczne wyzwania związane z monitorowaniem miliardów interakcji z dużymi modelami językowymi. OpenAI pompuje miliony dolarów w systemy bezpieczeństwa, ale balansowanie między prywatnością użytkownika a ochroną życia to stąpanie po cienkim lodzie. Przypadki, w których chatboty miały rzekomo popychać ludzi do tragicznych decyzji (jak choćby głośne ugody z Google i Character.AI), dowodzą, że AI może stać się katalizatorem mrocznych impulsów, szczególnie u osób zmagających się z zaburzeniami psychicznymi.
Źródła: The Guardian, The Wall Street Journal, BBC News, Associated Press
