DeepSeek właśnie wyłożył karty na stół i trzeba przyznać, że to mocne rozdanie, tym bardziej, że timing wybrał sobie precyzyjnie. Preview V4 ląduje dokładnie tego samego dnia, w którym OpenAI pokazuje GPT-5.5, i tydzień po tym, jak Anthropic wypuścił Claude Opus 4.7. Na stole: model V4 Pro z 1,6 biliona parametrów, milionem tokenów kontekstu i cennikiem API, przy którym zachodni giganci wyglądają jak oferta dla bogaczy. Chińczycy nie zamierzają prosić USA o zgodę na rozwój i idą na całość, budując potęgę na układach od Huawei.

DeepSeek V4 Pro – co faktycznie siedzi pod maską?

DeepSeek V4 to nowa rodzina modeli typu MoE (Mixture of Experts) od chińskiego DeepSeek AI. Dwóch zawodników wchodzi na ring:

  • DeepSeek-V4-Pro – flagowiec z 1,6 biliona parametrów total i 49 mld aktywnych na token
  • DeepSeek-V4-Flash – lżejsza wersja z 284 mld parametrów total i 13 mld aktywnych

Choć liczby robią wrażenie, kluczem do sukcesu jest architektura. Podczas generowania pojedynczego tokena aktywnych pozostaje jedynie ułamek modelu – reszta zasobów „śpi”, co przekłada się na efektywność energetyczną i szybkość działania, o której zachodnia konkurencja może na razie pomarzyć.

Możliwości modelu nie kończą się na tekście, bo mamy tu do czynienia z pełną multimodalnością obejmującą wideo, audio i obrazy od podstaw. Okno kontekstowe o rozmiarze 1 miliona tokenów pozwala „nakarmić” model treścią odpowiadającą kilkunastu grubym powieściom naraz. Co ciekawe, po odpowiedniej kwantyzacji (FP4/FP8 mixed), ten gigant jest w stanie ruszyć lokalnie na domowym sprzęcie wyposażonym w dwie karty RTX 4090 lub jedną RTX 5090.

DeepSeek AI, które wystartowało zaledwie w 2023 roku, konsekwentnie buduje wizerunek lidera w dziedzinie kodowania i logicznego rozumowania. Oficjalny raport techniczny opublikowany na platformie Hugging Face potwierdza, że wagi modelu zostały udostępnione na liberalnej licencji MIT, co jest jasnym sygnałem dla społeczności open-source. To kolejny mocny ruch w trendzie, w którym chińskie laboratoria dominują na Hugging Face, oddając coraz potężniejsze modele za darmo.

Trzy techniczne asy w rękawie architektury DeepSeek V4

Pierwszym asem w rękawie Chińczyków jest Engram Conditional Memory, czyli sprytny mechanizm oddzielający twardą wiedzę o faktach od procesów dynamicznego rozumowania. Efekty widać gołym okiem w testach typu „igła w stogu siana” (Needle-in-a-Haystack), gdzie precyzja modelu skoczyła z 84,2% do imponujących 97%. Według wewnętrznych danych DeepSeek, pozwala to modelowi unikać halucynacji przy analizie gigantycznych dokumentów.

Druga innowacja to Manifold-Constrained Hyper-Connections (mHC) – matematyczny kaganiec nałożony na przepływ sygnału wewnątrz sieci. Zamiast gigantycznej amplifikacji, która w tradycyjnych modelach potrafi wzrosnąć 3000-krotnie, tutaj trzymana jest poniżej poziomu 2x. Dzięki temu trenowanie biliona parametrów odbywa się przy zaledwie 6,7% overheadzie obliczeniowym, co jest wynikiem wręcz absurdalnie dobrym w tej skali.

Listę zamyka hybrydowa architektura uwagi łącząca Compressed Sparse Attention (CSA) i Heavily Compressed Attention (HCA). To rozwiązanie błyskawicznie skanuje kontekst i kompresuje go tak, by model skupiał uwagę wyłącznie na kluczowych fragmentach danych. Jak podaje oficjalna dokumentacja na Hugging Face, przy oknie 1M tokenów V4-Pro potrzebuje już tylko:

  • 27% FLOP-ów w porównaniu do V3.2 przy generowaniu pojedynczego tokena
  • 10% pamięci KV cache przy tym samym oknie kontekstu

To bezpośrednio przekłada się na niskie ceny dla końcowego użytkownika – do których jeszcze wrócimy.

Benchmarki bez przekrętu: V4 Pro kontra Opus 4.7 i świeżutki GPT-5.5

I tu zaczynają się schody, bo tabelka porównawcza robi psikusa. DeepSeek w oficjalnym raporcie technicznym zestawia V4-Pro z GPT-5.4 i Claude Opus 4.6 – ale te modele są już wczorajsze. 16 kwietnia Anthropic wypuścił Claude Opus 4.7, a 23 kwietnia OpenAI zaprezentowało GPT-5.5. Porównanie z poprzednimi flagowcami wygląda dla V4 przyzwoicie – z aktualnymi sytuacja robi się dużo bardziej niuansowa.

Zacznijmy od tego, co DeepSeek faktycznie pokazał w oficjalnym benchmarku:

  • SWE-bench Verified: 80,6% – dokładnie na poziomie Gemini 3.1 Pro i tuż za Claude Opus 4.6 (80,8%)
  • LiveCodeBench: 93,5% – V4-Pro pokonuje Gemini (91,7%) i Opus 4.6 (88,8%)
  • Codeforces rating: 3206 – wyprzedza GPT-5.4 xHigh (3168) i Gemini (3052), co w programowaniu konkursowym jest nieliche
  • IMOAnswerBench: 89,8% – dużo lepiej niż Claude (75,3%) i Gemini (81,0%)

Problem w tym, że Opus 4.7 sprzed tygodnia przesunął poprzeczkę na SWE-bench Verified do 87,6%, a na trudniejszym SWE-bench Pro do 64,3%. V4-Pro z wynikiem 55,4% na SWE-bench Pro wypada tu słabo – prowadzi nawet chiński konkurent Kimi K2.6-podobny pod tym względem (58,6%). Tymczasem GPT-5.5 z dzisiaj króluje na Terminal-Bench 2.0 z wynikiem 82,7% (V4-Pro: 67,9%) i na OSWorld-Verified.

Benchmark DeepSeek V4-Pro Claude Opus 4.7 GPT-5.5 DeepSeek V3.2
SWE-bench Verified 80,6% 87,6% ~80% (poprz.) ~68%
SWE-bench Pro 55,4% 64,3% 58,6% n/d
Terminal-Bench 2.0 67,9% 69,4% 82,7% n/d
LiveCodeBench 93,5% 88,8% (4.6) n/d 83,3%
Codeforces (rating) 3206 n/d n/d n/d
HLE (no tools) 37,7% 46,9% brak n/d
Okno kontekstu 1M 1M 1M 128K
Parametry (total/aktywne) 1,6T / 49B nieujawnione nieujawnione 671B / 37B
Zestawienie na podstawie oficjalnych danych DeepSeek (raport techniczny V4), Anthropic (Opus 4.7 system card) i OpenAI (GPT-5.5 announcement).

Krótki morał: V4-Pro jest genialny w konkursowym kodowaniu, mocny w matematyce, ale Opus 4.7 nadal rządzi na agentowych benchmarkach kodowania, a GPT-5.5 zdominował tool use i obsługę komputera. W wyścigu open-source V4-Pro-Max faktycznie jest obecnie najlepszym dostępnym modelem o otwartych wagach – i to jest jego prawdziwa nisza.

Ceny API w DeepSeek V4: nadal nokaut, choć nie tak spektakularny

Jeśli myśleliście, że AI musi być drogie, to DeepSeek nadal wyprowadza was z błędu – ale skala różnicy zaczyna się zmieniać. Oto cennik za milion tokenów dla V4-Pro:

  • 1,74 USD za milion tokenów wejściowych
  • 3,48 USD za milion tokenów wyjściowych

To znacznie taniej niż u konkurencji, ale warto odnotować, że DeepSeek podniósł ceny względem poprzednich modeli. Dla porównania, oto co liczą sobie zachodni giganci:

  • OpenAI GPT-5.5: 5 USD za wejście i aż 30 USD za wyjście (OpenAI podniosło ceny dokładnie 2x względem GPT-5.4, który kosztował 2,50/15 USD)
  • Claude Opus 4.7: 5/25 USD za milion (cennik bez zmian względem 4.6, ale nowy tokenizer tnie do 35% więcej tokenów na tym samym tekście, więc realny koszt może być wyższy)

V4-Pro wychodzi więc ~8-9x tańszy na wejściu i ~7-9x tańszy na wyjściu od zachodnich flagowców. A V4-Flash jest wręcz 12x tańszy od Pro na wyjściu, przy wynikach w zasięgu 1-3 punktów na większości benchmarków wiedzy.

Co ważne dla deweloperów, API jest w pełni kompatybilne ze standardami OpenAI i Anthropic, oferując tryby thinking oraz non-thinking z trzema poziomami intensywności (high, max oraz non-think). Chińczycy grają va banque i ogłosili już, że starsze modele deepseek-chat oraz reasoner przejdą na zasłużoną emeryturę 24 lipca 2026 roku – obecnie routują się automatycznie do deepseek-v4-flash. To jasny sygnał, że firma stawia wszystko na jedną kartę i chce zdominować rynek masową adopcją swojej technologii.

To prawdziwy killer dla startupów i twórców aplikacji, gdzie koszty tokenów często zabijają rentowność biznesu. Tutaj chińska efektywność operacyjna spotyka się z filozofią otwartego oprogramowania, tworząc mieszankę wybuchową, która może zmusić amerykańskie korporacje do kolejnych ruchów cenowych – tym razem w drugą stronę niż ta, którą wybrało właśnie OpenAI.

Huawei zamiast Nvidii, czyli DeepSeek V4 omija sankcje

Biorąc pod uwagę, że administracja USA zablokowała eksport chipów B300 i H200 do Państwa Środka, DeepSeek musiał szukać alternatyw. Efekt? Model V4 został w pełni zoptymalizowany pod chińskie jednostki Huawei Ascend 950PR, które według doniesień Reutersa oferują około 2,87-krotność mocy obliczeniowej układu H20. O ile trenowanie odbywało się jeszcze na starszych Nvidia Blackwell, o tyle wnioskowanie (inference) śmiga już na rodzimym krzemie poprzez framework CANN Next (odpowiednik CUDA).

Sygnał jest tak mocny, że największe chińskie tech-koncerny ustawiły się w kolejce po sprzęt:

  • Alibaba, ByteDance i Tencent złożyły masowe zamówienia na setki tysięcy układów Ascend 950PR
  • Ceny chipów na rynku skoczyły o około 20% w ciągu kilku tygodni
  • Jensen Huang, CEO Nvidii, w podcaście Dwarkesha przyznał, że optymalizacja V4 pod Huawei zamiast amerykańskiego sprzętu to „koszmarny scenariusz” dla Stanów Zjednoczonych

Obserwujemy geopolitykę w najczystszej postaci: DeepSeek sprawnie omija bariery technologiczne, budując całkowicie suwerenny stos technologiczny. To nie są tylko puste deklaracje – V4 stabilnie pracuje też na akceleratorach Cambricon MLU, udowadniając, że bez dostępu do najnowszych GPU od „zielonych” też da się tworzyć modele z absolutnego topu open-source. Cała ta historia rozgrywa się oczywiście w cieniu amerykańskich oskarżeń o kradzież technologii AI, które właśnie nasilają się przed szczytem Trump-Xi.

Dla nas, użytkowników końcowych, to doskonała wiadomość. Pojawienie się tak silnego gracza spoza ekosystemu Nvidii oznacza większą konkurencję i realną alternatywę dla amerykańskiego monopolu. Wybór dnia premiery (ten sam, w którym GPT-5.5 zadebiutował z podwojoną ceną) był prawdopodobnie celowy – Chińczycy jasno komunikują, że w wyścigu zbrojeń AI nikt nie może czuć się bezpiecznie, a przewaga technologiczna bywa bardzo ulotna.

Źródła: huggingface.co/deepseek-ai/DeepSeek-V4-Pro (oficjalny raport techniczny), openai.com (wprowadzenie GPT-5.5, 23.04.2026), Anthropic (Claude Opus 4.7 system card, 16.04.2026), VentureBeat, The Decoder, Reuters, TechCrunch, Fast Company, officechai.com, kingy.ai, nxcode.io, llm-stats.com.