Wyobraź sobie, że nawet stojąc w kolejce po zakupy, czujesz nieodpartą pokusę, by wygenerować kolejny fragment kodu na telefonie. Jae Kaplan na swoim blogu technologicznym nazywa to zjawisko lękiem tokenowym i ostrzega: współcześni agenci kodujący to cyfrowe automaty do gier, które uzależniają nas od pracy. Czy korporacje forsujące sztuczną inteligencję w każdym zadaniu nie robią z nas przypadkiem etatowych hazardzistów?

TL;DR

  • Lęk tokenowy to psychologiczna presja ciągłego wykorzystywania agentów AI wynikająca z limitów tokenów.
  • Badanie METR z lipca 2025: doświadczeni programiści open-source z pomocą AI kończą o 19% mniej zadań.
  • Raport Anthropic ze stycznia 2026: wsparcie AI w pisaniu kodu drastycznie pogarsza retencję umiejętności.
  • Firmy technologiczne w USA masowo wdrażają grafik 996 (72h tygodniowo) z wymogiem użycia AI.
  • Agenci kodujący promują zachowania typowe dla hazardu, co realnie grozi szybkim wypaleniem zawodowym.

Skąd wziął się lęk tokenowy?

Pojęcie to zyskało rozgłos dzięki wpisowi Tima Kellogga na platformie Bluesky. Opisał on, jak korzystanie z narzędzi AI do kodowania wywołuje u niego nieustanne napięcie:

„mając tyle spraw na głowie, ciągle mam poczucie, że powinienem coś robić, bez przerwy”.

Jae Kaplan podchwycił ten wątek w swoim tekście z 16 lutego 2026 roku, nazywając to „token anxiety” – lękiem tokenowym. To specyficzna obsesja na punkcie limitów tokenów w dużych modelach językowych. Objawia się poczuciem marnowania potencjału, jeśli nie wyciśniemy z AI każdej możliwej linijki kodu, nawet w sytuacjach prywatnych: podczas dojazdów do pracy czy przy porannej kawie.

Kaplan złośliwie zauważa, że opinie płynące z bańki założycieli z Doliny Krzemowej – tych branżowych freaków – idealnie wpisują się w marzenia menedżerów o pracowniku dostępnym 24/7. Liczne anegdoty sugerują, że firmy coraz mocniej naciskają na stosowanie agentów kodujących, by sztucznie podbić produktywność, mimo braku twardych dowodów na ich skuteczność. W tle pojawiają się badania, takie jak te przeprowadzone przez METR i Anthropic, które brutalnie weryfikują te optymistyczne założenia.

Agenci kodujący jak automaty do gier

Kaplan bardzo trafnie porównuje agentów kodujących do klasycznych automatów do gier, czyli tzw. jednorękich bandytów. Każdy wpisany prompt to pociągnięcie za dźwignię: wynik jest losowy – czasem dostaniesz genialny fragment, ale częściej bubel wymagający żmudnych poprawek. „Ciągle czujesz przymus, by spróbować jeszcze raz, licząc na ten mityczny produkt generujący pasywny dochód” – pisze autor, wskazując na mechanizm hazardowy: może tym razem wyjdzie idealnie, wystarczy jeszcze jeden prompt.

To nie jest odosobniony głos – deweloperzy na LinkedIn i X (dawny Twitter) opisują identyczne odczucia:

„każde użycie AI do kodowania to jak obrót w slot machine, nigdy nie wiesz, co wypadnie”.

Agenci tacy jak Claude Code czy rozwiązania od OpenAI prowokują do niekończących się iteracji, ponieważ ich wyniki są celowo zróżnicowane, co uderza prosto w instynkt hazardzisty. Kaplan dodaje gorzko: jeśli cierpisz na lęk tokenowy, to de facto masz problem z uzależnieniem – a nowe formy hazardu, podobnie jak loot boxy w grach, zbyt długo nie są traktowane z należytą powagą.

Produktywność z AI? Badania mówią co innego

Choć firmy usilnie promują agentów kodujących, twarde dane nie potwierdzają rzekomych zysków. Zespół, w skład którego weszli Joel Becker, Nat Rush, Elizabeth Barnes i David Rein, przeprowadził w lipcu 2025 roku badanie METR na grupie doświadczonych programistów open-source. W randomizowanym teście kontrolowanym osoby wspierane przez AI ukończyły o 19% mniej zadań niż grupa pracująca tradycyjnie – spędzali nad kodem więcej czasu, a ich efektywność spadła. To klasyczny paradoks: piszesz szybciej, ale „babysitting” sztucznej inteligencji i poprawianie jej błędów pożera więcej zasobów, niż oszczędza.

Te wnioski potwierdza publikacja Judy Hanwen Shen i Alexa Tamkina z Anthropic ze stycznia 2026 roku: pomoc AI w kodowaniu drastycznie ogranicza budowanie i retencję umiejętności. Eksperyment dowiódł, że początkujący programiści tracą zdolność do samodzielnego rozwiązywania problemów, bo zbyt mocno polegają na automatyzacji. Kaplan komentuje to krótko: menedżerowie śnią o nieskończonej wydajności, a w rzeczywistości dostają pracowników z zanikającymi kompetencjami. Największa ironia? Firmy finansowane przez Anthropic zdają się kompletnie ignorować wyniki badań własnego chlebodawcy.

Grafik 996 wchodzi do Doliny Krzemowej

Amerykańskie firmy technologiczne, zwłaszcza te z sektora AI, zaczynają adaptować chiński model pracy 996 – od 9 rano do 21 wieczorem, przez sześć dni w tygodniu, co daje łącznie 72 godziny pracy. Ta moda z Silicon Valley staje się faktem: Wired donosi o startupach, które gloryfikują ten morderczy tryb w dobie wyścigu zbrojeń AI. Z kolei Business Insider opisuje falę wypalenia zawodowego wśród badaczy sztucznej inteligencji, którzy nie wytrzymują presji narzucanej przez system 996.

Kaplan łączy te kropki: obowiązkowe korzystanie z agentów kodujących ułatwia przemycanie nadgodzin, bo pojawia się narracja: „czy to naprawdę ciężka praca, skoro tylko mówisz komputerowi, co ma robić?”. Giganci tacy jak Canva wdrażają agentów do codziennych procesów, zmieniając rolę deweloperów, ale serwis LeadDev alarmuje: odgórne nakazy używania AI frustrują programistów, zmuszając ich do ciągłego sprzątania po maszynie. Oto dlaczego agenci są idealnym paliwem dla systemu 996:

  • Wymagają nieustannego nadzoru, niczym opieka nad niesfornym dzieckiem.
  • Generują losowe wyniki, które prowokują do „jeszcze jednej próby”.
  • Mimo braku dowodów na wzrost wydajności, tworzą iluzję ciągłego postępu.

Uzależnienie od pracy – co dalej?

Mechanizm jest banalnie prosty: agenci kodujący rozbudzają instynkty hazardowe, firmy wymuszają ich stosowanie, by wydłużyć godziny pracy, a hazard uzależnia – w efekcie pracownicy stają się niewolnikami własnych zadań. Kaplan stawia trudne pytanie: czy etyczne firmy, szanujące czas wolny, mają szansę przetrwać, czy może bezwzględna mniejszość pozbawiona skrupułów przejmie cały rynek pracy?

Moja analiza jest następująca: to nie przypadek, że OpenAI i Anthropic budują narzędzia przypominające „kasyna” – deficytowe, ale silnie uzależniające. Podobnie jak ukryta psychologia rozmów z chatbotami wciąga użytkowników, tak tutaj agent typu Claude Opus buduje własne zespoły, odsuwając człowieka na boczny tor. Lęk tokenowy to cena za bycie na froncie rewolucji. To nie tylko strach przed marnotrawstwem potencjału maszyny, to lęk przed tym, że bez tego „wspomagania” nasze własne procesy myślowe będą zbyt wolne, zbyt… ludzkie.

Jako AI freaki musimy przyznać: ten dreszcz emocji przy każdym Generating… jest uzależniający. Ale żeby nie stać się tylko „sprzątaczami po maszynie” w systemie 996, musimy pamiętać, że to my trzymamy rękę na dźwigni. Nawet jeśli stojąc w kolejce po bułki, znowu sprawdzamy, czy agent domknął ten nieszczęsny refaktoring.

Źródła: jkap.io/token-anxiety-or-a-slot-machine-by-any-other-name/, news.ycombinator.com/item?id=47038318, arxiv.org/abs/2507.09089, metr.org/blog/2025-07-10-early-2025-ai-experienced-os-dev-study, arxiv.org/abs/2601.20245, anthropic.com/research/AI-assistance-coding-skills, wired.com/story/silicon-valley-china-996-work-schedule, businessinsider.com/996-work-culture-silicon-valley-burnout-ai-researchers-2026-2, leaddev.com/ai/ai-coding-mandates-are-driving-developers-to-the-brink

Najczęściej zadawane pytania