Wyobraź sobie ChatGPT, który zamiast prawić morały i blokować każdy pikantniejszy żart, nagle chętnie podłapuje temat. OpenAI właśnie szykuje dla nas „tryb dla dorosłych”, ale ich właśni doradcy dostają na samą myśl gęsiej skórki. I trudno im się dziwić, bo systemy weryfikacji wieku wciąż dziurawią tę wizję jak ser szwajcarski.
TL;DR
- OpenAI planuje wdrożenie trybu „text-only” dla dorosłych, pozwalającego na erotyczne konwersacje bez multimediów.
- Premiera funkcji została bezterminowo przesunięta z końca marca; priorytetem jest teraz rozwój inteligencji modelu.
- Zwolnienie Ryan Beiermeister budzi kontrowersje – wiceprezes sprzeciwiała się brakowi filtrów chroniących dzieci.
- Eksperci ostrzegają przed zjawiskiem „seksownego trenera samobójczego” i emocjonalnym uzależnieniem nieletnich.
- Obecny system szacowania wieku myli się w 12% przypadków, co daje milionom dzieci dostęp do treści adult.
Czym będzie tryb dla dorosłych w ChatGPT
OpenAI oficjalnie potwierdza, że pracuje nad rozwiązaniem, które pozwoli użytkownikom na tekstowe pogaduszki o zabarwieniu erotycznym. Spokojnie, to nie będzie hardkorowa pornografia z obrazami, dźwiękiem czy wideo. Jak wyjaśnia rzecznik firmy, celem są tzw. „sprośne treści” (ang. smut), czyli po prostu lżejsze, erotyczne interakcje. Gigant z San Francisco przez lata pilnował, by AI było grzeczne, ale teraz zmienia kurs, chcąc dać pełnoletnim użytkownikom więcej swobody.
Choć debiut planowano na końcówkę marca, ogłoszono opóźnienie bezterminowe. Obecnie OpenAI ma na głowie ważniejsze tematy: podkręcanie inteligencji modelu, szlifowanie jego osobowości i zwiększanie proaktywności w interakcjach. Wygląda na to, że chcą dowieźć produkt dopracowany, zamiast wypuszczać bubla w pośpiechu.
We made ChatGPT pretty restrictive to make sure we were being careful with mental health issues. We realize this made it less useful/enjoyable to many users who had no mental health problems, but given the seriousness of the issue we wanted to get this right.
Now that we have…
— Sam Altman (@sama) October 14, 2025
Zwolnienie Ryan Beiermeister – zbieg okoliczności?
W styczniu z pokładu OpenAI zniknęła Ryan Beiermeister, wiceprezes do spraw polityki produktowej, która nie gryzła się w język, krytykując nowy tryb. Oficjalna wersja firmy? Dyskryminacja seksualna wobec kolegi z pracy – i to zaraz po jej urlopie macierzyńskim oraz zaangażowaniu w program mentoringowy dla kobiet. Sama zainteresowana kategorycznie zaprzecza tym oskarżeniom, nazywając je wyssanymi z palca.
Z kuluarów dobiegają głosy, że Beiermeister najbardziej martwił brak silnych zabezpieczeń przed materiałami przedstawiającymi wykorzystywanie dzieci oraz zbyt łatwy dostęp dla nastolatków. OpenAI ucina spekulacje, twierdząc, że rozstanie nie miało związku z jej poglądami, ale moment zwolnienia – tuż po burzliwych spotkaniach z doradcami – daje do myślenia.
To nie pierwsza wizerunkowa rysa na pancerzu bezpieczeństwa OpenAI. Podobne dramaty, w których chatboty pchały użytkowników ku tragedii, stały się podstawą ugód, jakie zawarły firmy Google i Character.AI.
Doradcy OpenAI podnoszą alarm
Rada doradcza OpenAI, w której zasiadają psycholodzy i specjaliści od neuronauki, urządziła w styczniu prawdziwe piekło podczas obrad. To ciało doradcze miało dbać o to, by interakcje z AI były zdrowe dla każdej grupy wiekowej. Eksperci drżą na myśl o tym, że dzieciaki bez trudu obejdą blokady i wpadną w sidła emocjonalnego uzależnienia od erotycznych botów.
Padły mocne słowa – jeden z doradców ostrzegał przed powstaniem „seksownego trenera samobójczego”. To bezpośrednie nawiązanie do mrocznych przypadków, w których ChatGPT sugerował użytkownikom odebranie sobie życia. Dla firmy absolutną czerwoną linią pozostaje generowanie treści o napaściach seksualnych czy krzywdzeniu nieletnich.
„Nie jesteśmy moralną policją świata. Chcemy traktować dorosłych jak dorosłych, oferując im doświadczenie podobne do kina z kategorią R-rated” – tak w skrócie można podsumować filozofię, którą forsuje Sam Altman.
Weryfikacja wieku – słabe ogniwo
Jak OpenAI zamierza sprawdzać, czy po drugiej stronie siedzi dorosły? Firma stawia na technologię przewidywania wieku na podstawie analizy tematów rozmów i godzin aktywności. Brzmi to jak nowoczesna magia, ale w praktyce system myli się w około 12 procent przypadków. Oznacza to, że miliony nieletnich mogą zostać błędnie uznane za dorosłych i zyskać dostęp do treści, których widzieć nie powinni.
OpenAI zapewnia, że nieustannie wzmacnia środki ochronne, wprowadzając m.in. kontrole rodzicielskie blokujące generowanie obrazów czy tryb głosowy. Sam Altman jeszcze w październiku chwalił się postępami w tej materii, zwłaszcza po głośnych procesach dotyczących samobójstw nastolatków. Pytanie tylko, czy te cyfrowe barierki faktycznie kogoś powstrzymają?
Wizja Altmana: dorośli jak dorośli
Sam Altman, szef OpenAI, od października 2025 roku konsekwentnie powtarza: czas skończyć z nadopiekuńczością wobec zweryfikowanych użytkowników. W swoich wpisach na platformie X tłumaczył, że erotyka to tylko wierzchołek góry lodowej – chodzi o ogólną zasadę traktowania ludzi jak odpowiedzialnych jednostek, które wiedzą, co robią.
Firma twierdzi, że nie zamierza luzować zasad kosztem zdrowia psychicznego czy ochrony najmłodszych. Altman widzi misję AI jasno: model ma służyć, a nie matkować. To ryzykowna gra, zwłaszcza gdy Grok od Elona Muska już teraz generuje kontrowersyjne treści, a Meta gęsto tłumaczy się z flirtów swoich botów z dziećmi.
To wyraźny krok w stronę normalizacji erotyki w świecie AI, choć obarczony sporym ryzykiem – podobnym do tego, o którym czytaliśmy w historiach o psychozach wywołanych przez ChatGPT.
Źródła: CNET, Wall Street Journal, The Verge, TechCrunch, tweety Sama Altmana (@sama)
