DeepSeek właśnie wyłożył karty na stół i trzeba przyznać, że to mocne rozdanie, tym bardziej, że timing wybrał sobie precyzyjnie. Preview V4 ląduje dokładnie tego samego dnia, w którym OpenAI pokazuje GPT-5.5, i tydzień po tym, jak Anthropic wypuścił Claude Opus 4.7. Na stole: model V4 Pro z 1,6 biliona parametrów, milionem tokenów kontekstu i cennikiem API, przy którym zachodni giganci wyglądają jak oferta dla bogaczy. Chińczycy nie zamierzają prosić USA o zgodę na rozwój i idą na całość, budując potęgę na układach od Huawei.
DeepSeek V4 Pro – co faktycznie siedzi pod maską?
DeepSeek V4 to nowa rodzina modeli typu MoE (Mixture of Experts) od chińskiego DeepSeek AI. Dwóch zawodników wchodzi na ring:
- DeepSeek-V4-Pro – flagowiec z 1,6 biliona parametrów total i 49 mld aktywnych na token
- DeepSeek-V4-Flash – lżejsza wersja z 284 mld parametrów total i 13 mld aktywnych
Choć liczby robią wrażenie, kluczem do sukcesu jest architektura. Podczas generowania pojedynczego tokena aktywnych pozostaje jedynie ułamek modelu – reszta zasobów „śpi”, co przekłada się na efektywność energetyczną i szybkość działania, o której zachodnia konkurencja może na razie pomarzyć.
Możliwości modelu nie kończą się na tekście, bo mamy tu do czynienia z pełną multimodalnością obejmującą wideo, audio i obrazy od podstaw. Okno kontekstowe o rozmiarze 1 miliona tokenów pozwala „nakarmić” model treścią odpowiadającą kilkunastu grubym powieściom naraz. Co ciekawe, po odpowiedniej kwantyzacji (FP4/FP8 mixed), ten gigant jest w stanie ruszyć lokalnie na domowym sprzęcie wyposażonym w dwie karty RTX 4090 lub jedną RTX 5090.
DeepSeek AI, które wystartowało zaledwie w 2023 roku, konsekwentnie buduje wizerunek lidera w dziedzinie kodowania i logicznego rozumowania. Oficjalny raport techniczny opublikowany na platformie Hugging Face potwierdza, że wagi modelu zostały udostępnione na liberalnej licencji MIT, co jest jasnym sygnałem dla społeczności open-source. To kolejny mocny ruch w trendzie, w którym chińskie laboratoria dominują na Hugging Face, oddając coraz potężniejsze modele za darmo.
🚀 DeepSeek-V4 Preview is officially live & open-sourced! Welcome to the era of cost-effective 1M context length.
🔹 DeepSeek-V4-Pro: 1.6T total / 49B active params. Performance rivaling the world’s top closed-source models.
🔹 DeepSeek-V4-Flash: 284B total / 13B active params.… pic.twitter.com/n1AgwMIymu— DeepSeek (@deepseek_ai) April 24, 2026
Trzy techniczne asy w rękawie architektury DeepSeek V4
Pierwszym asem w rękawie Chińczyków jest Engram Conditional Memory, czyli sprytny mechanizm oddzielający twardą wiedzę o faktach od procesów dynamicznego rozumowania. Efekty widać gołym okiem w testach typu „igła w stogu siana” (Needle-in-a-Haystack), gdzie precyzja modelu skoczyła z 84,2% do imponujących 97%. Według wewnętrznych danych DeepSeek, pozwala to modelowi unikać halucynacji przy analizie gigantycznych dokumentów.
Druga innowacja to Manifold-Constrained Hyper-Connections (mHC) – matematyczny kaganiec nałożony na przepływ sygnału wewnątrz sieci. Zamiast gigantycznej amplifikacji, która w tradycyjnych modelach potrafi wzrosnąć 3000-krotnie, tutaj trzymana jest poniżej poziomu 2x. Dzięki temu trenowanie biliona parametrów odbywa się przy zaledwie 6,7% overheadzie obliczeniowym, co jest wynikiem wręcz absurdalnie dobrym w tej skali.
Listę zamyka hybrydowa architektura uwagi łącząca Compressed Sparse Attention (CSA) i Heavily Compressed Attention (HCA). To rozwiązanie błyskawicznie skanuje kontekst i kompresuje go tak, by model skupiał uwagę wyłącznie na kluczowych fragmentach danych. Jak podaje oficjalna dokumentacja na Hugging Face, przy oknie 1M tokenów V4-Pro potrzebuje już tylko:
- 27% FLOP-ów w porównaniu do V3.2 przy generowaniu pojedynczego tokena
- 10% pamięci KV cache przy tym samym oknie kontekstu
To bezpośrednio przekłada się na niskie ceny dla końcowego użytkownika – do których jeszcze wrócimy.
Benchmarki bez przekrętu: V4 Pro kontra Opus 4.7 i świeżutki GPT-5.5
I tu zaczynają się schody, bo tabelka porównawcza robi psikusa. DeepSeek w oficjalnym raporcie technicznym zestawia V4-Pro z GPT-5.4 i Claude Opus 4.6 – ale te modele są już wczorajsze. 16 kwietnia Anthropic wypuścił Claude Opus 4.7, a 23 kwietnia OpenAI zaprezentowało GPT-5.5. Porównanie z poprzednimi flagowcami wygląda dla V4 przyzwoicie – z aktualnymi sytuacja robi się dużo bardziej niuansowa.
Zacznijmy od tego, co DeepSeek faktycznie pokazał w oficjalnym benchmarku:
- SWE-bench Verified: 80,6% – dokładnie na poziomie Gemini 3.1 Pro i tuż za Claude Opus 4.6 (80,8%)
- LiveCodeBench: 93,5% – V4-Pro pokonuje Gemini (91,7%) i Opus 4.6 (88,8%)
- Codeforces rating: 3206 – wyprzedza GPT-5.4 xHigh (3168) i Gemini (3052), co w programowaniu konkursowym jest nieliche
- IMOAnswerBench: 89,8% – dużo lepiej niż Claude (75,3%) i Gemini (81,0%)
Problem w tym, że Opus 4.7 sprzed tygodnia przesunął poprzeczkę na SWE-bench Verified do 87,6%, a na trudniejszym SWE-bench Pro do 64,3%. V4-Pro z wynikiem 55,4% na SWE-bench Pro wypada tu słabo – prowadzi nawet chiński konkurent Kimi K2.6-podobny pod tym względem (58,6%). Tymczasem GPT-5.5 z dzisiaj króluje na Terminal-Bench 2.0 z wynikiem 82,7% (V4-Pro: 67,9%) i na OSWorld-Verified.
| Benchmark | DeepSeek V4-Pro | Claude Opus 4.7 | GPT-5.5 | DeepSeek V3.2 |
|---|---|---|---|---|
| SWE-bench Verified | 80,6% | 87,6% | ~80% (poprz.) | ~68% |
| SWE-bench Pro | 55,4% | 64,3% | 58,6% | n/d |
| Terminal-Bench 2.0 | 67,9% | 69,4% | 82,7% | n/d |
| LiveCodeBench | 93,5% | 88,8% (4.6) | n/d | 83,3% |
| Codeforces (rating) | 3206 | n/d | n/d | n/d |
| HLE (no tools) | 37,7% | 46,9% | brak | n/d |
| Okno kontekstu | 1M | 1M | 1M | 128K |
| Parametry (total/aktywne) | 1,6T / 49B | nieujawnione | nieujawnione | 671B / 37B |
Krótki morał: V4-Pro jest genialny w konkursowym kodowaniu, mocny w matematyce, ale Opus 4.7 nadal rządzi na agentowych benchmarkach kodowania, a GPT-5.5 zdominował tool use i obsługę komputera. W wyścigu open-source V4-Pro-Max faktycznie jest obecnie najlepszym dostępnym modelem o otwartych wagach – i to jest jego prawdziwa nisza.
Ceny API w DeepSeek V4: nadal nokaut, choć nie tak spektakularny
Jeśli myśleliście, że AI musi być drogie, to DeepSeek nadal wyprowadza was z błędu – ale skala różnicy zaczyna się zmieniać. Oto cennik za milion tokenów dla V4-Pro:
- 1,74 USD za milion tokenów wejściowych
- 3,48 USD za milion tokenów wyjściowych
To znacznie taniej niż u konkurencji, ale warto odnotować, że DeepSeek podniósł ceny względem poprzednich modeli. Dla porównania, oto co liczą sobie zachodni giganci:
- OpenAI GPT-5.5: 5 USD za wejście i aż 30 USD za wyjście (OpenAI podniosło ceny dokładnie 2x względem GPT-5.4, który kosztował 2,50/15 USD)
- Claude Opus 4.7: 5/25 USD za milion (cennik bez zmian względem 4.6, ale nowy tokenizer tnie do 35% więcej tokenów na tym samym tekście, więc realny koszt może być wyższy)
V4-Pro wychodzi więc ~8-9x tańszy na wejściu i ~7-9x tańszy na wyjściu od zachodnich flagowców. A V4-Flash jest wręcz 12x tańszy od Pro na wyjściu, przy wynikach w zasięgu 1-3 punktów na większości benchmarków wiedzy.
Co ważne dla deweloperów, API jest w pełni kompatybilne ze standardami OpenAI i Anthropic, oferując tryby thinking oraz non-thinking z trzema poziomami intensywności (high, max oraz non-think). Chińczycy grają va banque i ogłosili już, że starsze modele deepseek-chat oraz reasoner przejdą na zasłużoną emeryturę 24 lipca 2026 roku – obecnie routują się automatycznie do deepseek-v4-flash. To jasny sygnał, że firma stawia wszystko na jedną kartę i chce zdominować rynek masową adopcją swojej technologii.
To prawdziwy killer dla startupów i twórców aplikacji, gdzie koszty tokenów często zabijają rentowność biznesu. Tutaj chińska efektywność operacyjna spotyka się z filozofią otwartego oprogramowania, tworząc mieszankę wybuchową, która może zmusić amerykańskie korporacje do kolejnych ruchów cenowych – tym razem w drugą stronę niż ta, którą wybrało właśnie OpenAI.
Huawei zamiast Nvidii, czyli DeepSeek V4 omija sankcje
Biorąc pod uwagę, że administracja USA zablokowała eksport chipów B300 i H200 do Państwa Środka, DeepSeek musiał szukać alternatyw. Efekt? Model V4 został w pełni zoptymalizowany pod chińskie jednostki Huawei Ascend 950PR, które według doniesień Reutersa oferują około 2,87-krotność mocy obliczeniowej układu H20. O ile trenowanie odbywało się jeszcze na starszych Nvidia Blackwell, o tyle wnioskowanie (inference) śmiga już na rodzimym krzemie poprzez framework CANN Next (odpowiednik CUDA).
Sygnał jest tak mocny, że największe chińskie tech-koncerny ustawiły się w kolejce po sprzęt:
- Alibaba, ByteDance i Tencent złożyły masowe zamówienia na setki tysięcy układów Ascend 950PR
- Ceny chipów na rynku skoczyły o około 20% w ciągu kilku tygodni
- Jensen Huang, CEO Nvidii, w podcaście Dwarkesha przyznał, że optymalizacja V4 pod Huawei zamiast amerykańskiego sprzętu to „koszmarny scenariusz” dla Stanów Zjednoczonych
Obserwujemy geopolitykę w najczystszej postaci: DeepSeek sprawnie omija bariery technologiczne, budując całkowicie suwerenny stos technologiczny. To nie są tylko puste deklaracje – V4 stabilnie pracuje też na akceleratorach Cambricon MLU, udowadniając, że bez dostępu do najnowszych GPU od „zielonych” też da się tworzyć modele z absolutnego topu open-source. Cała ta historia rozgrywa się oczywiście w cieniu amerykańskich oskarżeń o kradzież technologii AI, które właśnie nasilają się przed szczytem Trump-Xi.
Dla nas, użytkowników końcowych, to doskonała wiadomość. Pojawienie się tak silnego gracza spoza ekosystemu Nvidii oznacza większą konkurencję i realną alternatywę dla amerykańskiego monopolu. Wybór dnia premiery (ten sam, w którym GPT-5.5 zadebiutował z podwojoną ceną) był prawdopodobnie celowy – Chińczycy jasno komunikują, że w wyścigu zbrojeń AI nikt nie może czuć się bezpiecznie, a przewaga technologiczna bywa bardzo ulotna.
Źródła: huggingface.co/deepseek-ai/DeepSeek-V4-Pro (oficjalny raport techniczny), openai.com (wprowadzenie GPT-5.5, 23.04.2026), Anthropic (Claude Opus 4.7 system card, 16.04.2026), VentureBeat, The Decoder, Reuters, TechCrunch, Fast Company, officechai.com, kingy.ai, nxcode.io, llm-stats.com.
