Polski model językowy Bielik v3 ląduje na 4. miejscu w międzynarodowych testach porównawczych wielojęzycznych, mijając po drodze Nemotron 30B od Nvidii czy Llama 3.1 8B od Mety. Sebastian Kondracki, współzałożyciel SpeakLeash, nie kryje dumy na platformie X. W końcu mamy coś, co nie każe nam tylko zazdrościć Amerykanom.

Skąd ten polski orzeł w czołówce?

Bielik v3 to najnowsza odsłona rodziny dużych modeli językowych od Fundacji SpeakLeash, trenowana na superkomputerach Athenie i Heliosie w Akademickim Centrum Komputerowym Cyfronet przy Akademii Górniczo-Hutniczej w Krakowie. Model bazuje na architekturze podobnej do tych z otwartych projektów, ale z własnym tokenizatorem dostosowanym do polskiego. Wersje mają od 1,5 miliarda do 11 miliardów parametrów – ta ostatnia to Bielik-11B-v3, wytrenowana na ponad 17 miliardach tokenów instrukcji, w tym ręcznie sprawdzonych po polsku. Zespół pod wodzą Krzysztofa Ociepy i Remigiusza Kinasa postawił na dane z polskiego dziedzictwa: ustawy, Wikipedia, dokumenty prawne. Zamiast bazować na amerykańskich gigantach, SpeakLeash buduje suwerenność cyfrową od zera.

EuroEval to zestaw testów porównawczych dla modeli europejskich języków – od kodowania po rozumienie kontekstu, dla wersji bazowych i instrukcyjnych, czyli dostrojonych do reagowania na polecenia użytkownika. Obsługuje ponad 12 języków, w tym polski, i jest standardem w Europie od trzech lat. Bielik błyszczy tu nie tylko w polskim (3. miejsce ze średnią 0,66), ale i wielojęzycznie, co pokazuje, że da się trenować efektywnie bez miliardów dolarów.

Konkretne wyniki: wyprzedzamy Meta i Nvidię

W testach wielojęzycznych wersja bazowa Bielika v3 zajęła 4. miejsce na świecie, a instrukcyjna 32. – ale wśród czysto instrukcyjnych, bez tych z dodatkowym wnioskowaniem, wskoczyła na 18.0 Sebastian Kondracki chwali: „Top 10 to giganci i modele wielokrotnie większe niż nasze 11B, a my wyprzedzamy Nemotron 30B Nvidii, OLMo 32B i Llama 3.1 8B Mety”. W polskim radzi sobie z tłumaczeniami EN-PL na poziomie BLEU 21,93 i odwrotnie 28,32, plus solidnie w niemieckim i czeskim.

  • 3. miejsce w zadaniach polskich (średnia 0,66)
  • Wyprzedza większe modele w wielojęzycznych
  • Otwarte dane treningowe i licencja Apache 2.0 – każdy może pobrać z Hugging Face

Nieźle jak na projekt non-profit z 10-15 osobowym zespołem. Pokazuje, że liczy się nie tylko rozmiar, ale jakość danych i optymalizacja.

Dla wszystkich: darmowy, lokalny i z polskim kontekstem

Bielik.ai ma już ponad 100 tysięcy użytkowników, milion pobrań i 4 tysiące w społeczności na Discordzie. Działa lokalnie na zwykłym GPU czy CPU, bez wysyłania danych do chmury – idealne dla firm dbających o prywatność. Rozumie nie tylko gramatykę, ale i kulturowe niuanse: lokalną historię, prawo, tradycje. Otrzymał honorowy patronat Ministerstwa Cyfryzacji, które planuje politykę AI do 2030, z AI w większości usług publicznych.

Akcja „Nakarm Bielika” z InPostem to strzał w dziesiątkę: w aplikacji Mobile ponad 15 milionów klientów wchodzi w interakcję z modelem, a anonimowe dane z rozmów idą na dalszy trening. InPost, mecenas od listopada 2025, daje skalę, jakiej nie mają inne projekty. W efekcie Bielik rośnie na polskich realiach, a my zyskujemy narzędzie suwerenne – bez Zuckerberga w tle.

Co dalej dla Bielika?

Nagrody jak Technologia Roku Money.pl w 2025 czy wyróżnienia na GOSIM pokazują, że to nie jednorazowy strzał. Z wsparciem InPostu, Beyond i EY, plus grantami PLGrid, SpeakLeash planuje kolejne iteracje. Ministerstwo Cyfryzacji widzi w nim filar strategii AI. Krytycznie: nadal mniejszy od GPT-4, ale w niszy europejskiej i polskiej nokautuje. Zamiast narzekać na brak własnych gigantów, mamy open-source, który bije ich podróbki.

Społeczność na Discordzie buduje narzędzia jak Bielik Guard do blokady szkodliwych treści czy Eskadrę Bielika z warsztatami agentów AI. Przyszłość? Lokalne wdrożenia w urzędach, biznesie i edukacji – bo po co płacić za obce modele, skoro mamy swój.

Źródło: https://bielik.ai/; https://huggingface.co/spaces/speakleash/european_leaderboard_bielik; https://huggingface.co/speakleash/Bielik-11B-v3.0-Instruct; https://x.com/SebKondracki/status/2007223914045337941; https://euroeval.com/; https://pl.wikipedia.org/wiki/Bielik_(model_językowy); https://inpost.pl/aktualnosci-bielikai-w-aplikacji-inpost-mobile