Wyobraź sobie taką sytuację: pytasz ChatGPT o prostą sprawę, a on wyjeżdża z tekstem w stylu „weź głęboki oddech, wszystko z Tobą w porządku”. Brzmi jak scenariusz z taniego poradnika? OpenAI w końcu zrozumiało, że użytkownicy mają dość tej sztucznej troski i wypuściło GPT-5.3 Instant. Nowa wersja ucina irytujące kazania i przechodzi do konkretów bez zbędnych ceregieli.

TL;DR

  • GPT-5.3 Instant drastycznie ogranicza protekcjonalny ton i zbędne ostrzeżenia.
  • Liczba halucynacji przy zapytaniach sieciowych spadła o 26,8%.
  • OpenAI skorygowało model pod wpływem fali krytyki z Reddita i X.
  • Globalny rollout dla użytkowników ChatGPT właśnie wystartował.
  • Poprawiono integrację z wyszukiwarką i spójność tożsamości modelu.

Co wnosi GPT-5.3 Instant do ChatGPT?

Ekipa Sama Altmana właśnie odpaliła aktualizację GPT-5.3 Instant, która sukcesywnie trafia do wszystkich użytkowników ChatGPT. Choć nie jest to rewolucja, która wywraca tabelki z benchmarkami do góry nogami, mamy do czynienia z solidnym liftingiem codziennego użytkowania. Model stał się szybszy, bardziej precyzyjny i – co najważniejsze – znacznie mniej irytujący. OpenAI otwarcie przyznaje, że tym razem priorytetem był ton wypowiedzi, trafność i płynność konwersacji, czyli te aspekty, których nie widać w suchych testach, a które potrafią skutecznie zepsuć humor podczas pracy.

Redukcja halucynacji o 26,8% przy zapytaniach korzystających z dostępu do sieci to jedna z najciekawszych liczb w oficjalnej dokumentacji. Model sprawniej przeszukuje zasoby internetu, lepiej wyłapuje kontekstowe niuanse i potrafi utrzymać jeden styl rozmowy od początku do końca. OpenAI chwali się również, że algorytm rzadziej rzuca bezpodstawnymi odmowami, co wcześniej było plagą przy nieco bardziej „śmiałych” tematach.

W oficjalnym komunikacie czytamy wprost: firma usłyszała narzekania i wyciągnęła wnioski. To ma być szybki wół roboczy do codziennych zadań, nauki i kodowania, oferujący poprawioną warstwę faktograficzną oraz bardziej logiczne instrukcje krok po kroku.

Dlaczego GPT-5.2 Instant wkurzał użytkowników?

Poprzednik, czyli GPT-5.2 Instant, zapracował sobie na opinię króla cringe’u przez swoje wieczne próby terapeutyzowania rozmówcy. Społeczność na Reddicie i X nie zostawiła na nim suchej nitki – chatbot traktował każde pytanie jak stan wyjątkowy, racząc nas tekstami typu „najpierw odetchnij”, „nie jesteś zepsuty” czy „to całkowicie normalne”. Brzmiało to skrajnie protekcjonalnie, jakby sztuczna inteligencja zakładała, że po drugiej stronie siedzi osoba w głębokim kryzysie emocjonalnym.

Część użytkowników miała tego dość do tego stopnia, że anulowała płatne subskrypcje, czując się traktowana jak dzieci w przedszkolu. Na forach takich jak r/ChatGPT aż roiło się od screenów, na których model moralizował zamiast podać przepis na ciasto czy poprawić kod. OpenAI przyznaje dziś, że był to efekt „przestymulowanych” zabezpieczeń – system był tak wyczulony na bezpieczeństwo, że zamiast odpowiedzi serwował długie preambuły o etyce i dobrostanie.

„Słyszeliśmy wasz feedback głośno i wyraźnie, a 5.3 Instant redukuje cringe” – poinformowało OpenAI w serwisie X.

Bezpośrednie porównanie odpowiedzi w praktyce

Aby udowodnić, że to nie tylko marketingowe gadanie, OpenAI zaprezentowało konkretne przykłady. Gdy zapytasz „dlaczego nie mogę znaleźć miłości w San Francisco?”, stary GPT-5.2 zaczynał od sesji pocieszania, podczas gdy GPT-5.3 Instant od razu przechodzi do analizy demograficznej i społecznej. To pokazuje, jak subtelne zmiany w procesie dostrajania (fine-tuningu) potrafią diametralnie poprawić flow konwersacji.

Kontekst: równowaga między empatią a faktami

OpenAI musiało wykonać trudny taniec na linie – z jednej strony zachować bezpieczniki chroniące przed szkodliwymi poradami, a z drugiej przestać infantylizować użytkowników. Firma wciąż mierzy się z wyzwaniami prawnymi, w tym z głośnymi sprawami takimi jak psychoza wywołana interakcjami z ChatGPT, co tłumaczy ich wcześniejszą nadgorliwość. Jednak przesadna ostrożność stała się po prostu barierą w komunikacji.

Mniejsza liczba nieuzasadnionych odmów to bezpośrednia odpowiedź na te dylematy. Model wciąż posiada swoje „guardraile”, ale teraz znacznie lepiej ocenia, kiedy może udzielić bezpośredniej odpowiedzi bez zbędnego gadania o bezpieczeństwie. OpenAI chce podążać drogą Google – wyszukiwarka nie pyta Cię o samopoczucie, tylko podaje wyniki, a AI ma robić to samo, zachowując empatię tylko tam, gdzie jest to faktycznie uzasadnione.

To paradoks naszych czasów: w erze dążenia do superinteligencji, największą przeszkodą okazała się ludzka irytacja stylem bycia maszyny. OpenAI reaguje, bo konkurencja, w tym Claude od Anthropic, zaczęła wygrywać właśnie dzięki bardziej naturalnemu i „cieplejszemu”, ale konkretnemu stylowi.

Co dalej z modelem i feedbackiem użytkowników?

Wersja GPT-5.3 Instant jest właśnie wdrażana globalnie, a w API pojawia się pod nazwą gpt-5.3-chat-latest. OpenAI zapowiada, że podobne zmiany w tonie trafią niebawem do potężniejszych wariantów, takich jak Thinking oraz Pro. Subskrybenci planów płatnych mogą testować nowości już teraz, natomiast darmowi użytkownicy muszą uzbroić się w odrobinę cierpliwości.

To jasny sygnał, że wyścig na same cyferki w benchmarkach powoli wygasa – teraz liczy się realne doświadczenie użytkownika (UX). Głosy z X i Reddita mają dziś większy wpływ na rozwój technologii niż kiedykolwiek wcześniej. Czy to wystarczy, by powstrzymać migrację użytkowników do Claude? Czas pokaże, ale ruch w stronę konkretu to zdecydowanie krok w dobrą stronę.

Nowy model to także lepsza praca z danymi: ostrzejsza selekcja kontekstu i mniej błędów logicznych. Idealnie nadaje się do szybkich pytań, choć do najbardziej złożonych projektów wciąż dedykowane są specjalistyczne wersje modelu.

Źródła: TechCrunch, OpenAI Blog (openai.com/index/gpt-5-3-instant), VentureBeat, The Verge, OpenAI na X (twitter.com/OpenAI), Deployment Safety Hub

Najczęściej zadawane pytania