Na targach CES w Las Vegas Jensen Huang (oczywiście w swojej kultowej skórzanej kurtce) odpalił prawdziwą bombę. Nvidia zaprezentowała platformę Rubin – następcę potężnego Blackwell. Brzmi jak gratka dla fanów technologii, ale pod spodem kryje się sprytny plan: Nvidia chce być jedynym właścicielem „fabryki”, w której powstaje przyszłość.
Platforma Rubin: superkomputer AI z sześciu układów
Nvidia przestała bawić się w sprzedawanie pojedynczych podzespołów. Platforma Rubin to superkomputer w pigułce, składający się z sześciu różnych układów, które współpracują ze sobą jak idealnie naoliwiona maszyna.
Co to daje w praktyce?
- Tańsze „myślenie” AI: dzięki temu, że części są do siebie idealnie dopasowane, proces, w którym AI odpowiada na Twoje pytania, ma być 10 razy tańszy.
- Mniej sprzętu, więcej mocy: trening najbardziej zaawansowanych modeli będzie wymagał cztery razy mniej maszyn niż dotychczas.
Jak mówi analityk Chirag Dekate z Gartnera:
„Sztuczna inteligencja to już nie gra o pojedynczy procesor graficzny, lecz problem na skalę fabryki AI”.
W skrócie: Nvidia nie buduje już silników – oni budują całe linie produkcyjne, a konkurencja (Intel czy AMD) wciąż próbuje ich dogonić w biegach krótkodystansowych.
Szczegóły sześciu nowych procesorów Nvidia
Rozbijmy to na części: Nvidia Vera CPU to nowy procesor centralny, Rubin GPU ma 224 multiprocesory strumieniowe z szóstą generacją rdzeni tensorowych zoptymalizowanych pod formaty NVFP4 i FP8 do niskoprecyzyjnych obliczeń. Nvidia NVLink 6 Switch zapewnia 3,6 terabita na sekundę przepustowości między procesorami graficznymi, a ConnectX-9 SuperNIC to superszybki interfejs sieciowy o niskim opóźnieniu do skalowania na zewnątrz.
Do tego Nvidia BlueField-4, jednostka przetwarzania danych z 64-rdzeniowym procesorem Grace CPU i wbudowanym ConnectX-9 do offloadu infrastruktury, plus Spectrum-6 Ethernet Switch z optyką współpakietowaną dla niezawodnej sieci. Razem dają 5 razy wyższą wydajność wnioskowania niż poprzednie generacje. Wyzwanie? Firmy jak Anthropic czy OpenAI już testują, ale musicie zaufać Nvidia w optymalizacji.
Otwarte modele: od mowy po roboty i auta
Nvidia nie zapomina o oprogramowaniu – wypuścili specjalistyczne otwarte modele z wagami i danymi treningowymi.
- Nemotron speech to model rozpoznawania mowy w czasie rzeczywistym o niskim opóźnieniu, idealny do napisów na żywo czy asystentów głosowych. Nemotron RAG używa modeli wizyjno-językowych do wyszukiwania rozszerzonego generowania, czyli wyszukuje dane i generuje odpowiedzi z wizją i tekstem.
- Linia Cosmos z World Foundation Models: Reason 2 pomaga robotom rozumieć świat fizyczny, Transfer 2.5 i Predict 2.5 generują syntetyczne wideo do symulacji.
- Alpamayo, model rozumowania wizyjno-językowego dla autonomicznych pojazdów.
Huang twierdzi dumnie:
„Publikujemy modele i dane, byście ufali ich pochodzeniu”.
Ironia polega na tym, że choć modele są „otwarte”, to do ich sensownego uruchomienia i tak potrzebujesz sprzętu Nvidii.
Innowacja czy cyfrowe kajdanki?
Nvidia buduje mur wokół swojego królestwa. Giganci tacy jak Meta (Facebook) czy xAI (Elon Musk) ustawiają się w kolejce po Rubina, bo to najszybsza droga do potężnej sztucznej inteligencji. Ale z każdym takim zakupem coraz trudniej będzie im kiedykolwiek przejść do konkurencji.
Rubin to pokaz siły. Jeśli spełni obietnicę 50 petaflopsów (czyli wykona 50 biliardów operacji w mgnieniu oka), stanie się fundamentem świata autonomicznych agentów AI, którzy będą za nas pracować. Pytanie tylko, czy stać nas na to, by klucze do tego świata trzymał tylko jeden człowiek w skórzanej kurtce.
Źródła: aibusiness.com/generative-ai/nvidia-intros-new-ai-chips-and-open-models, nvidianews.nvidia.com/news/rubin-platform-ai-supercomputer, developer.nvidia.com/blog/inside-the-nvidia-rubin-platform-six-new-chips-one-ai-supercomputer, reuters.com/world/china/nvidia-ceo-huang-take-stage-ces-las-vegas-competition-mounts-2026-01-05, wired.com/story/nvidias-rubin-chips-are-going-into-production
