Wyobraźcie sobie, że producent smartfonów i elektryków nagle wbija się do ścisłej elity AI z modelem, który nie tylko nokautuje lokalną konkurencję, ale i bezczelnie podgryza OpenAI. MiMo-V2-Pro od Xiaomi robi dokładnie to – wjeżdża na pełnej z wydajnością, przy której zachodni giganci muszą zacząć nerwowo przeliczać swoje budżety chmurowe.

TL;DR

  • MiMo-V2-Pro posiada 1 bilion parametrów, z czego 42 miliardy są aktywne w każdym przejściu
  • Model trafił do Top 10 rankingu Intelligence Index Artificial Analysis z wynikiem 49
  • Osiągnął Elo 1426 na GDPval-AA, co jest najlepszym wynikiem wśród chińskich modeli
  • Cena to zaledwie 1$/3$ za milion tokenów (wej/wyj) przy kontekście do 256K
  • Wskaźnik halucynacji spadł do 30%, poprawiając wynik poprzednika o 18 punktów

Xiaomi z tła hardware’u na AI-front

Xiaomi, trzeci największy gracz na rynku smartfonów, kojarzony dotąd głównie z solidnymi gadżetami i elektrycznymi autami typu SU7 czy YU7, właśnie pokazał, że potrafi budować cyfrowe mózgi. Pod czujnym okiem Fuli Luo, weterana wyciągniętego z DeepSeek R1, światło dzienne ujrzał MiMo-V2-Pro. To potężny model bazowy uzbrojony w 1 bilion parametrów, który w zamyśle twórców ma być czymś więcej niż tylko kolejnym gadatliwym chatbotem. To fundament pod autonomiczne systemy zdolne do zarządzania łańcuchami dostaw czy samodzielnego pisania kodu bezpośrednio w terminalu.

Luo określił premierę mianem „cichej zasadzki” i trudno mu odmówić racji – podczas gdy inni wciąż debatują o przyszłości, Xiaomi po prostu dostarczyło gotowe rozwiązanie. Firma sprytnie łączy swoje doświadczenie w hardware ze świeżym software’em, pozycjonując MiMo jako idealny silnik dla złożonych struktur agentowych. Ironia losu polega na tym, że Pekin zaczyna bić Dolinę Krzemową ich własną bronią: efektywnością kosztową, podczas gdy Amerykanie wciąż pompują astronomiczne miliardy w infrastrukturę chmurową.

Przesunięcie z prostego czatu do ery agentów stało się tak szybkie, że ledwo nadążaliśmy – przyznał Luo w swoim wpisie w serwisie X.

Architektura zoptymalizowana pod agentów

Pod maską MiMo-V2-Pro kryje się rzadko spotykana, wyrafinowana architektura mieszanki ekspertów (MoE). Choć model dysponuje bilionem parametrów, w danym momencie aktywnych pozostaje jedynie 42 miliardy – to i tak trzykrotnie więcej niż w lżejszej wersji MiMo-V2-Flash. Kluczowym elementem układanki jest hybrydowy mechanizm uwagi działający w proporcji 7:1. Oznacza to, że 85% danych przechodzi przez szybki skan, a tylko 15% trafia do głębokiej analizy. Taki zabieg pozwala modelowi swobodnie operować w oknie kontekstowym rzędu 1 miliona tokenów bez zabójczego dla portfela wzrostu kosztów obliczeniowych.

Inżynierowie dorzucili do tego lekką warstwę przewidywania wielu tokenów naraz, co drastycznie ucina opóźnienia (latency) w momentach, gdy agent musi „pomyśleć” przed podjęciem akcji. To nie jest chwilowa moda na optymalizację, tylko chłodna kalkulacja wykonana miesiące temu, która dziś daje Xiaomi przewagę w zadaniach wymagających długofalowego planowania. Można to porównać do genialnego bibliotekarza: nie musi czytać każdej strony od deski do deski, by dokładnie wiedzieć, na której półce leży rozwiązanie Twojego problemu.

Oficjalne komunikaty Xiaomi kładą duży nacisk na pełną integrację z otwartymi strukturami typu OpenClaw. Model został poddany rygorystycznemu procesowi dostrajania (fine-tuning), aby bezbłędnie wywoływać zewnętrzne narzędzia i projektować wieloetapowe ścieżki działania, co czyni go groźnym konkurentem dla zachodnich rozwiązań.

Benchmarki – niezależna weryfikacja

Niezależna organizacja Artificial Analysis nie miała litości i umieściła MiMo-V2-Pro na 10. miejscu w swoim globalnym rankingu Intelligence Index. Z wynikiem 49 punktów model Xiaomi depcze po piętach GPT-5.2 Codex, zostawiając w tyle chociażby Grok 4.20 Beta. Jeszcze ciekawiej robi się w teście GDPval-AA, symulującym realne zadania agentowe – tam MiMo wykręciło Elo na poziomie 1426. To nie tylko solidny wynik, to absolutny rekord chińskiego sektora AI, bijący na głowę takie jednostki jak GLM-5 (1406) czy Kimi K2.5 (1283).

W specyficznym teście ClawEval model wyciągnął 61,5 punktu, zbliżając się niebezpiecznie do Claude Opus 4.6 (66,3), natomiast w Terminal-Bench 2.0 popisał się wynikiem 86,7. Co niezwykle istotne dla biznesu, poziom halucynacji spadł do 30% (dla porównania: wersja Flash notowała aż 48%), a indeks wszechwiedzy (omniscience) ustabilizował się na poziomie +5. Warto odnotować, że model zużył zaledwie 77 milionów tokenów wyjściowych na przejście całego zestawu testów, wykazując się znacznie większą oszczędnością niż jego bezpośredni rywale. Xiaomi dumnie raportuje też skuteczność na poziomie 71,7% w prestiżowym SWE-Bench Verified, co stawia go w pierwszej lidze narzędzi do kodowania.

Ceny miażdżą zachodnią elitę

Xiaomi ewidentnie chce przekupić deweloperów i robi to w bezlitosny sposób. Przy oknie kontekstowym do 256K zapłacimy zaledwie 1 dolara za milion tokenów wejściowych i 3 dolary za wyjściowe. Jeśli potrzebujemy pełnego miliona tokenów, stawki rosną do odpowiednio 2 i 6 dolarów. Co ciekawe, odczyt z pamięci podręcznej (cache read) kosztuje grosze (0,20-0,40 USD), a zapis jest obecnie całkowicie darmowy. Koszt przeprowadzenia pełnego testu Intelligence Index? Dla MiMo to 348 dolarów, podczas gdy za GPT-5.2 trzeba zapłacić 2304 dolary, a za Opus 4.6 aż 2486 dolarów.

Model Input $/1M Output $/1M Total est. Intelligence Index
MiMo-V2-Pro (<256K) 1.00 3.00 4.00 49
GLM-5 1.00 3.20 4.20 50
GPT-5.2 1.75 14.00 15.75 49
Claude Opus 4.6 5.00 25.00 30.00 ~60
Claude Sonnet 4.6 3.00 15.00 18.00 ~55
Grok 4.1 Fast 0.20 0.50 0.70 ~40

Porównanie cen i wyników Intelligence Index dla kluczowych modeli.

Mówimy więc o niemal siedmiokrotnie niższych kosztach przy zachowaniu zbliżonego poziomu inteligencji. Na ten moment model dostępny jest wyłącznie przez autorskie API Xiaomi i skupia się na tekście – multimodalna wersja Omni ma zadebiutować jako osobny produkt w późniejszym terminie. Pierwsze testy przeprowadzone na platformie OpenRouter potwierdzają, że rynek jest wręcz wygłodniały tak wysokiej efektywności w tak niskiej cenie. To może być moment zwrotny, w którym firmy przestaną przepłacać za prestiżowe logo z Doliny Krzemowej.

Dla firm – okazja z haczykiem

Z perspektywy infrastrukturalnej MiMo-V2-Pro to klasyczne optimum Pareto: dostajemy topową inteligencję za ułamek rynkowej ceny, co czyni ten model idealnym kandydatem do pracy w klastrach GPU. Dzięki oknu kontekstowemu 1M, procesy RAG na ogromnych bazach kodu stają się banalnie proste. Model świetnie odnajduje się w roli dyrygenta w systemach wieloagentowych, gdzie niskie opóźnienia są kluczowe dla płynnej koordynacji zadań.

Oczywiście nie ma róży bez kolców, a w tym przypadku kolcem jest bezpieczeństwo. Szerokie uprawnienia agentowe (dostęp do terminali i systemów plików) naturalnie zwiększają podatność na ataki typu „prompt injection”. Dodatkowo, brak publicznie dostępnych wag modelu uniemożliwia przeprowadzenie niezależnych audytów bezpieczeństwa. Choć poziom halucynacji jest niski, firmy wdrażające to rozwiązanie muszą zainwestować w solidny monitoring. W zestawieniu z modelem GLM-5, MiMo wygrywa w rankingach Elo, ale wciąż ustępuje pola pod względem otwartości i transparentności architektury.

Źródła: VentureBeat, mimo.xiaomi.com, artificialanalysis.ai, X: @_LuoFuli, @ArtificialAnlys

Najczęściej zadawane pytania