Wyobraźcie sobie Niemcy – kraj z największym odsetkiem absolwentów STEM w całej Unii Europejskiej, gdzie genialni inżynierowie zamiast zapobiegać cyfrowej apokalipsie, wolą projektować kolejne diesle. Jessica Wang uznała, że czas z tym skończyć. W styczniu 2026 roku wystartowała z SAIGE, by przekierować te tęgie umysły na właściwe tory, zanim sztuczna inteligencja wymknie się spod kontroli. Czy uda się ich zwerbować, zanim będzie za późno?

TL;DR

  • SAIGE wystartowało w styczniu 2026 roku jako inicjatywa Jessiki Wang, finansowana z własnych środków.
  • Główny cel: przekierowanie niemieckich talentów STEM (35% magisterskich dyplomów w UE) do sektora AI safety.
  • Inkubator Spring 2026 przyciągnął 69 aplikacji, z czego wyłoniono 22 osoby (32% akceptacji).
  • Program Pivot Track wspiera profesjonalistów dzięki partnerstwom z Impact Academy i High Impact Professionals.
  • Inicjatywa wspiera lokalne grupy w strategicznych ośrodkach: Frankfurcie, Bonn i Norymberdze.

Co to jest SAIGE i jaka jest jej misja?

SAIGE, czyli Safe AI Germany, oficjalnie ruszyło w styczniu 2026 roku jako ogólnokrajowa inicjatywa badawcza, której celem jest budowa fundamentów pod bezpieczeństwo sztucznej inteligencji. Założona przez Jessicę Wang organizacja stawia sobie ambitne zadanie: chce wyciągnąć niemieckie talenty z tradycyjnych branż i rzucić je na odcinek walki z katastroficznymi ryzykami, jakie niesie za sobą zaawansowane AI.

W rzeczywistości, w której Niemcy kształcą 35% absolwentów STEM na poziomie magisterskim – co deklasuje unijną średnią wynoszącą 25% – większość tych mózgów marnuje się w mechanice czy branży automotive. Powód? Brak odpowiedniej infrastruktury i kontekstu, by wejść w świat AI safety. SAIGE buduje ten most: od autorskich programów inkubacyjnych po wsparcie ścieżki kariery, by uczynić z Niemiec realną siłę w europejskim ekosystemie bezpieczeństwa.

To swoista ironia losu, że kraj, który jako „swing vote” ostatecznie przepchnął EU AI Act, teraz musi przekonywać własnych inżynierów, że bezpieczeństwo AGI to nie science-fiction, a kwestia przetrwania. Wang słusznie punktuje geopolityczne znaczenie Niemiec, przypominając o armii 300 tysięcy studentów STEM i ponad 110 tysiącach przyszłych prawników, którzy mogliby zmieniać zasady gry.

Dlaczego Niemcy i ich ukryty potencjał

Wybór Niemiec na bazę operacyjną nie był dziełem przypadku. Kraj ten posiada nie tylko najwyższy PKB średniej potęgi w Unii Europejskiej, ale też światowej klasy zaplecze inżynieryjne, co czyni go kluczowym graczem w procesie regulacji sztucznej inteligencji na poziomie wspólnotowym. To właśnie niemiecka delegacja w finałowych negocjacjach EU AI Act przeważyła szalę na korzyść ustawy, mimo silnych oporów ze strony innych państw członkowskich.

Gdzie leży problem? Obecnie niemal zero tych talentów trafia do sektora AGI safety. Zamiast analizować modele zagrożeń, specjaliści ci projektują silniki, zasilając rzeszę 1,3 miliona zatrudnionych w sektorze mechanicznym. SAIGE diagnozuje tu strukturalny zator i zamierza go udrożnić poprzez centralną organizację, która wykracza poza ramy luźnych grup studenckich.

Z perspektywy geopolitycznej ma to głęboki sens: Niemcy mają realny wpływ na unijny ekosystem AI, ale bez własnych ekspertów od bezpieczeństwa zostaną w tyle za USA czy Chinami. Wang trafnie zauważa, że brak ścieżki rozwoju dla topowego 1% talentów to marnotrawstwo zasobów na skalę globalną.

Program inkubatora – brama dla nowicjuszy

Flagowym okrętem SAIGE jest program inkubatora – trzymiesięczny kurs w wymiarze part-time (10-20 godzin tygodniowo) z możliwością przedłużenia współpracy. Zainteresowanie przerosło oczekiwania: do kohorty Spring 2026 wpłynęło 69 aplikacji mentorskich, z których wybrano zaledwie 22 osoby, co daje 32% akceptacji. Rekrutacja dla uczestników trwa do 22 marca 2026 roku, a start zaplanowano na 20 kwietnia.

Program oferuje cztery ścieżki: techniczne bezpieczeństwo AI, governance i polityka AI, techniczne governance AI oraz komunikacja i budowanie pola. Projekty realizowane są w małych zespołach pod okiem takich mentorów jak Chris Schmitz z Hertie School czy Julia Bossmann z Sentient Futures. Wśród zadań znajdziemy m.in. analizę procesów zakupowych AI przez niemiecki rząd czy wizualizację ryzyk egzystencjalnych dla polityków.

Uczestnicy mogą liczyć na kurs wprowadzający, warsztaty badawcze, sesje Q&A z ekspertami oraz dostęp do lokalnej sieci kontaktów. Co ważne, doświadczenie w AI safety nie jest wymagane – liczy się solidny background w informatyce, prawie lub ekonomii. To nie jest jałowa teoria, ale realne projekty, które solidnie wyglądają w CV.

Pivot Track – dla profesjonalistów zmieniających branżę

SAIGE nie zapomina o doświadczonych graczach. Program Pivot Track jest skrojony pod profesjonalistów posiadających kompetencje, które można łatwo przenieść do nowej branży, takie jak zarządzanie, operacje czy compliance. Dzięki partnerstwom z Impact Academy oraz High Impact Professionals, uczestnicy otrzymują coaching karierowy i bezpośrednią ścieżkę do ról w sektorze bezpieczeństwa.

Organizatorzy widzą ogromne luki kadrowe: na rynku brakuje managerów badań, założycieli organizacji non-profit czy liderów operacyjnych. W rozdrobnionym niemieckim ekosystemie to ogromna szansa na budowę nowej dziedziny – od inkubatorów po think tanki. Proces jest prosty: aplikacja przez formularz, a następnie dopasowanie do odpowiedniego doradcy i zasobów.

Współpraca z Successif w zakresie warsztatów zmiany ścieżki zawodowej pokazuje nasze praktyczne podejście do tematu.

Dla inżynierów uczenia maszynowego czy ekspertów od RODO to idealna okazja, by wejść w implementację EU AI Act bez konieczności zaczynania kariery od zera.

Zespół i doradcy za sterami

Na czele projektu stoi Jessica P. Wang, dyrektorka z silnym zapleczem matematycznym. Wang ma na koncie współpracę z Epoch AI przy projekcie FrontierMath (była w top 9 kontrybutorów do Humanity’s Last Exam) oraz recenzowanie funduszy AI for Math o wartości 18 milionów dolarów. Wcześniej sprawdzała się jako koordynatorka outreachu i organizatorka sympozjów.

Trzon zespołu tworzą: Manon Kempermann (tech lead z doświadczeniem w data science i AI Safety Saarland, autorka tezy o testach zespołów atakujących w Max Planck), Jessie Kelly (governance lead) oraz Franziska Heuschkel odpowiedzialna za komunikację. W radzie doradczej zasiadają m.in. Anders Edson i Tzu Kit Chan z Atlas Computing oraz Steven Basart i Adrià Garriga-Alonso z FAR.AI.

To mały, ale wyjątkowo elitarny zespół, który obecnie działa w modelu bootstrappingu. Jessica Wang samodzielnie finansuje całe przedsięwzięcie i aktywnie szuka liderów pod adresem [email protected]. Ambicje są ogromne, mimo braku korporacyjnych budżetów na starcie.

Teoria zmian i plany rozwoju

Strategia SAIGE opiera się na prostym mechanizmie: przekierowaniu talentów do kluczowych ról w AI safety – od pracy w laboratoriach takich jak MATS, przez zakładanie organizacji non-profit, aż po doradztwo pro-bono dla decydentów. Sukces nie jest tu mierzony zasięgami w social mediach, ale konkretnymi transferami specjalistów.

Obecnie realizowana jest Faza I (niskobudżetowa), obejmująca inkubator, program pivot, wydarzenia online oraz wsparcie dla lokalnych grup w Frankfurcie, Bonn i Norymberdze. Faza II, uzależniona od pozyskania finansowania, zakłada organizację wyjazdów badawczych, hackathonów we współpracy z Apart Research oraz budowę centralnego zaplecza technologicznego.

Największym wyzwaniem pozostaje brak stabilnego finansowania zewnętrznego, ale z takimi mentorami jak Joschka Braun z MATS czy Florian Dietz, specjalista od zatruwania modeli, start wygląda obiecująco. W dobie, gdy Sam Altman szuka szefów safety za miliony dolarów, Niemcy wybierają własną drogę – skromniejszą finansowo, ale napędzaną czystą determinacją.

Źródła: LessWrong (https://www.lesswrong.com/posts/3sNox3m2PkFEbHwkw/safe-ai-germany-saige), safeaigermany.org, Manifund.org, X posts (@ierschmitzchris)

Najczęściej zadawane pytania