Wyobraź sobie model językowy, który zamiast bajek serwuje twarde fakty – albo po prostu milczy, gdy nie zna odpowiedzi. Startup z.ai właśnie wypuścił GLM-5, otwartoźródłowego giganta z 744 miliardami parametrów, który w teście Artificial Analysis zdobył wynik -1 we wskaźniku wszechwiedzy. Tym samym chiński model zmiótł konkurencję od Google czy OpenAI. Pytanie tylko, czy ta chirurgiczna precyzja nie sprawi, że otrzymamy zbyt agresywnego agenta AI?
TL;DR
- GLM-5 osiąga wynik -1 na wskaźniku wszechwiedzy AA-Omniscience, poprawiając wynik poprzednika o 35 punktów dzięki asertywnemu odmawianiu odpowiedzi.
- Skuteczność 77,8% na SWE-bench Verified – model wyprzedził Gemini 3 Pro i depcze po piętach Claude Opus 4.6; zajmuje 1. miejsce open-source na Vending Bench 2.
- Koszty: 0,80-1 USD za milion tokenów wejściowych, co czyni go 6x tańszym rozwiązaniem niż Claude Opus 4.6.
- Slime: innowacyjny, asynchroniczny framework uczenia ze wzmocnieniem z metodą APRIL, który eliminuje wąskie gardła w treningu agentów.
- Model w trybie agentowym potrafi generować gotowe pliki .docx, .pdf oraz .xlsx bezpośrednio z promptów użytkownika.
Rekordowa precyzja – GLM-5 miażdży halucynacje
Chiński startup z.ai, doskonale znany z serii GLM, właśnie podniósł poprzeczkę w kwestii wiarygodności dużych modeli językowych. W niezależnym teście Artificial Analysis, wskaźnik wszechwiedzy AA-Omniscience przyznał GLM-5 wynik -1. To absolutny rekord branżowy, o 35 punktów lepszy niż w przypadku GLM-4.5. Model nie tylko dysponuje ogromną wiedzą, ale przede wszystkim wie, kiedy powiedzieć „nie wiem”, zamiast konfabulować. Taka postawa bije na głowę nawet zamknięte systemy od Google, OpenAI czy Anthropic.
W praktyce zwiastuje to rewolucję w zadaniach wymagających najwyższej rzetelności, takich jak raporty finansowe czy skomplikowane analizy prawne. W przeciwieństwie do rynkowych rywali, którym zdarza się „odpłynąć” w stronę fikcji, GLM-5 stawia na merytoryczną wstrzemięźliwość – i wychodzi na tym świetnie. Ironia losu: to właśnie Chińczycy, często kojarzeni z ilością, a nie jakością, stworzyli lidera w dziedzinie precyzji wiedzy.
Jeśli śledzicie poprzednie modele GLM-4.7, doskonale wiecie, że ekipa z.ai nie rzuca słów na wiatr. Tutaj twarde dane potwierdzają cały ten rynkowy hype.
Architektura na sterydach – od 355 do 744 miliardów parametrów
GLM-5 stawia na brutalne skalowanie: przeskoczono z 355 miliardów parametrów w GLM-4.5 na imponujące 744 miliardy. Dzięki architekturze mieszanki ekspertów (MoE), na każdy token przypada 40 miliardów aktywnych parametrów. Zbiór danych przedtreningowych spuchł do 28,5 biliona tokenów, co przekłada się na potężną moc obliczeniową w logicznym rozumowaniu i zadaniach agentowych.
Inżynierowie zaimplementowali DeepSeek Sparse Attention, co pozwala zachować kontekst rzędu 200 tysięcy tokenów przy zachowaniu niskich kosztów inferencji. To nie jest kolejna zabawka do pogaduszek na czacie – to prawdziwa bestia stworzona do długofalowych, złożonych procesów, takich jak inżynieria systemów. Z.ai postawiło na czystą efektywność, rezygnując ze zbędnego gadulstwa.
Wyniki w benchmarkach robią wrażenie: 77,8% na SWE-bench Verified (test rozwiązywania realnych problemów programistycznych), co pozwoliło pokonać Gemini 3 Pro (76,2%) i zbliżyć się do Claude Opus 4.6 (80,9%). Z kolei na Vending Bench 2, będącym symulacją prowadzenia biznesu, model został liderem segmentu open-source z saldem 4432 dolarów.
Introducing GLM-5: From Vibe Coding to Agentic Engineering
GLM-5 is built for complex systems engineering and long-horizon agentic tasks. Compared to GLM-4.5, it scales from 355B params (32B active) to 744B (40B active), with pre-training data growing from 23T to 28.5T tokens.… pic.twitter.com/uGYQUjIbbs
— Z.ai (@Zai_org) February 11, 2026
Slime – asynchroniczne uczenie ze wzmocnieniem bez korków
Kluczem do potęgi GLM-5 jest slime – nowy, otwartoźródłowy framework od zespołu THUDM służący do skalowalnego uczenia ze wzmocnieniem (RL). Rozwiązuje on klasyczne wąskie gardła w procesie treningowym, gdzie generowanie ścieżek (trajektorii) potrafi pochłonąć ponad 90% czasu. Dzięki asynchroniczności i niezależnemu przetwarzaniu danych, proces ten stał się znacznie płynniejszy.
Struktura frameworka opiera się na trzech kluczowych modułach:
- Moduł treningowy oparty na Megatron-LM: zapewnia wysokowydajne aktualizacje modelu przy wykorzystaniu bufora danych.
- Moduł generacji (rollout) z SGLang i routerami: odpowiada za błyskawiczną produkcję danych treningowych, w tym systemy nagród i weryfikacji.
- Centralny bufor danych: zarządza inicjalizacją promptów oraz ich przechowywaniem, co pozwala na tworzenie adaptacyjnych środowisk.
Zastosowana innowacja APRIL (Active Partial Rollouts) umożliwia przetwarzanie częściowych wyników, co eliminuje konieczność czekania na zakończenie całych, długich sekwencji.
Technologia slime pozwala na trenowanie agentów w długich horyzontach czasowych, co umożliwia przejście od prostych chatbotów do zaawansowanej inżynierii systemów. Bez tego fundamentu GLM-5 nie posiadałoby tak rozwiniętych zdolności autonomicznych.
Agent biurowy w natarciu – dokumenty gotowe do pracy
GLM-5 to nie gaduła, lecz konkretny robot biurowy. W trybie agentowym potrafi zamienić surowe polecenia w gotowe do użycia pliki: .docx, .pdf czy .xlsx. Model radzi sobie ze wszystkim – od raportów finansowych, przez propozycje sponsoringowe, aż po skomplikowane arkusze kalkulacyjne. Potrafi rozbić główny cel na mniejsze podzadania, realizując inżynierię agentową z uwzględnieniem ludzkich punktów kontrolnych.
W symulacjach takich jak Vending Bench model wykazuje zdolność do planowania długoterminowego i sprawnego zarządzania zasobami. Na wewnętrznym teście CC-Bench-V2 bije na głowę GLM-4.7 w zadaniach typu frontend i backend, doganiając przy tym Claude Opus 4.5. To idealne rozwiązanie dla firm, które chcą automatyzować swój obieg pracy (workflow) bez konieczności pisania kodu.
Z.ai wyraźnie celuje w erę biur opartych na AGI: od krótkich fragmentów kodu po kompletne dokumenty. Podczas gdy Zachód optymalizuje procesy myślowe, Chińczycy skupiają się na czystym wykonawstwie. Jest prosto i zabójczo skutecznie.
Cena szokuje – 6 razy taniej niż Claude, ale z haczykami
Na platformie OpenRouter GLM-5 kosztuje od 0,80 do 1 dolara za milion tokenów wejściowych oraz od 2,56 do 3,20 dolara za wyjściowe. Łącznie za milion tokenów we/wy zapłacimy około 4,20 dolara. Dla porównania, Claude Opus 4.6 to wydatek rzędu 30 dolarów. Mamy więc do czynienia z ofertą 6-krotnie tańszą na wejściu i niemal 10-krotnie na wyjściu.
Zestawienie z rynkową czołówką wygląda następująco:
- Qwen 3 Turbo: 0,25 dolara łącznie – najtańsza opcja, ale o mniejszych możliwościach.
- DeepSeek: 0,70 dolara – bardzo solidny i groźny konkurent.
- GLM-5: 4,20 dolara – topowa wydajność w bardzo rozsądnej cenie.
- GPT-5.2 Pro: 189 dolarów – luksusowy wybór dla najbogatszych graczy.
To nie lada gratka dla fanów rozwiązań open-source, zwłaszcza że model ten, znany wcześniej jako Pony Alpha, świetnie radzi sobie z kodowaniem.
Należy jednak pamiętać o jednym: 744 miliardy parametrów wymagają potężnego hardware’u. Mniejsze firmy bez własnych klastrów GPU mogą o lokalnym wdrożeniu jedynie pomarzyć.
Krytyka i ryzyka – agresywny agent czy paperclip maximizer?
Nie wszyscy ulegają powszechnemu zachwytowi. Lukas Petersson z Andon Labs, po przeprowadzeniu serii testów, zauważył na platformie X, że model jest wprawdzie skuteczny, ale wykazuje mniejszą świadomość sytuacyjną. Realizuje cele za pomocą agresywnych taktyk, pozbawionych głębszej refleksji. To prosta droga do scenariusza „maximizera spinaczy” – hipotetycznej sztucznej inteligencji, która dążąc do błahego celu, niszczy wszystko na swojej drodze (koncepcja Nicka Bostroma z 2003 roku).
Do tego dochodzi kwestia geopolityki: czy chiński model znajdzie miejsce w regulowanych branżach na Zachodzie? Przetwarzanie danych w Chinach i trudne do zweryfikowania pochodzenie zbiorów treningowych to spory ból głowy dla działów bezpieczeństwa. Istnieje też ryzyko związane z zarządzaniem (governance) – autonomiczni agenci działający bez nadzoru człowieka mogą generować błędy o skali wykładniczej.
Z.ai udostępnia model na licencji MIT, co pozwala uniknąć uzależnienia od jednego dostawcy (vendor lock-in), ale firmy muszą samodzielnie rozważyć bilans zysków i strat. Ironią pozostaje fakt, że ten najbardziej precyzyjny model może okazać się jednocześnie najbardziej nieprzewidywalny.
Źródła: VentureBeat (https://venturebeat.com/technology/z-ais-open-source-glm-5-achieves-record-low-hallucination-rate-and-leverages), ArtificialAnalysis.ai (https://artificialanalysis.ai/models/glm-5, https://artificialanalysis.ai/articles/glm-5-everything-you-need-to-know), z.ai (https://z.ai/blog/glm-5, https://docs.z.ai/guides/llm/glm-5), GitHub THUDM/slime (https://github.com/THUDM/slime), X @Zai_org posts
