5 maja 2026 Center for AI Standards and Innovation (CAISI) – instytucja, która jeszcze rok temu nazywała się US AI Safety Institute, zanim Trump kazał wyciąć z nazwy słowo „safety” – ogłosiło rozszerzenie współpracy z Google DeepMind, Microsoftem i xAI o pre-deployment evaluations modeli AI. Dzień później dyrektor Narodowej Rady Ekonomicznej zapowiedział na Fox Business, że Biały Dom rozważa rozporządzenie wykonawcze nakładające na modele obowiązek certyfikacji „jak FDA z lekami”. W tle: model Mythos od Anthropic, który w jednym przebiegu znalazł 271 podatności w Firefoksie.

TL;DR

  • CAISI (dawniej US AI Safety Institute) podpisała 5 maja 2026 umowy z Google DeepMind, Microsoft i xAI na testy modeli frontowych
  • Testy obejmują ryzyka cybernetyczne, biologiczne i chemiczne; CAISI przeprowadziła już 40 ocen, często na „gołych” modelach
  • Kevin Hassett z Narodowej Rady Ekonomicznej zapowiedział rozporządzenie wykonawcze na wzór procedur medycznych FDA
  • Anthropic wstrzymało premierę Mythos po tym, jak model wykrył 271 luk zero-day w przeglądarce Firefox
  • Eksperci punktują brak jasnych standardów i ryzyko, że testy staną się narzędziem politycznym w rękach administracji

Czym jest CAISI i dlaczego ten ruch ma znaczenie?

CAISI siedzi pod NIST, NIST pod Departamentem Handlu. Pod kierownictwem sekretarza Howarda Lutnicka instytucja została wyznaczona jako główny punkt kontaktowy między branżą a rządem federalnym w sprawach testów i badań nad komercyjnymi systemami AI. Na czele stoi dyrektor Chris Fall.

Historia jest istotna: do początku 2025 roku ta sama instytucja działała pod nazwą United States Artificial Intelligence Safety Institute (USAISI). Administracja Trumpa wycofała słowo „safety” i przekształciła ją w Center for AI Standards and Innovation, akcentując orientację na innowacje, nie na regulację bezpieczeństwa. Pierwsze umowy z firmami AI – z OpenAI i Anthropic – były podpisane w 2024 roku jeszcze za Bidena. Obecne porozumienia są ich „renegocjowaną” wersją, dostosowaną do AI Action Plan administracji Trumpa.

Co dokładnie podpisali Google, Microsoft i xAI?

Komunikat NIST precyzyjnie określa zakres współpracy: CAISI dostaje dostęp do modeli zarówno przed publicznym wdrożeniem (pre-deployment evaluations), jak i po nim (post-deployment assessment). To istotne – to nie jest jednorazowe testowanie przy wypuszczaniu modelu, ale ciągłe monitorowanie. Łącznie CAISI przeprowadziło dotychczas ponad 40 takich ocen, w tym na nieuwolnionych jeszcze publicznie modelach.

Główny obszar testów obejmuje cyberbezpieczeństwo, biosecurity i ryzyka związane z bronią chemiczną. Aby precyzyjniej oceniać capabilities zagrażające bezpieczeństwu narodowemu, developerzy często przekazują CAISI wersje swoich modeli z ograniczonymi lub usuniętymi zabezpieczeniami. Testy mogą się też odbywać w środowiskach sklasyfikowanych. Międzyagencyjna grupa TRAINS Taskforce, którą koordynuje CAISI, łączy ekspertów z różnych części rządu federalnego skupionych na bezpieczeństwie narodowym w AI.

Z firm wypowiedziała się publicznie tylko jedna. Natasha Crampton, Chief Responsible AI Officer w Microsofcie, w komunikacie stwierdziła, że „rygorystyczne testy są niezbędne do budowania zaufania do zaawansowanych systemów AI”. Google DeepMind odmówiło dalszych komentarzy. xAI nie odpowiedziało na prośbę o komentarz. Wszystkie trzy firmy podpisały umowę – to fakt udokumentowany w komunikacie NIST.

Niezależna, rygorystyczna nauka pomiarowa jest niezbędna do zrozumienia frontowych modeli AI i ich implikacji dla bezpieczeństwa narodowego

– powiedział Chris Fall, dyrektor CAISI, w oficjalnym oświadczeniu.

Mythos: model, który zmusił Biały Dom do zmiany podejścia

Bez Mythosa cała ta zmiana podejścia administracji Trumpa byłaby trudna do wytłumaczenia. Mythos to frontier model Anthropic, którego firma jeszcze publicznie nie udostępniła – dostęp ograniczony jest do wąskiej grupy zaufanych organizacji w ramach programu Project Glasswing, głównie w sektorze cyberbezpieczeństwa i finansów.

To, co Mythos potrafi, najlepiej pokazuje współpraca z Mozillą. W listopadzie 2025 Anthropic skanował kod Firefoksa modelem Claude Opus 4.6 – efekt to 22 załatane podatności w Firefoxie 148. Wkrótce potem Mozilla dostała dostęp do wczesnej wersji Mythos Preview, która w jednym przebiegu zidentyfikowała 271 podatności bezpieczeństwa, załatanych w Firefoxie 150. Część komentatorów słusznie zauważa, że to „271 vulnerabilities”, nie „271 zero-days” w ścisłym sensie – wiele z tych błędów to defense-in-depth lub podatności w nieeksploatowalnych ścieżkach kodu. Ale nawet z tym zastrzeżeniem skala jest bezprecedensowa: w całym 2025 roku Firefox załatał około 73 podatności o wysokim poziomie zagrożenia.

Bobby Holley, CTO Firefoksa, tonował hype: nie znaleźli żadnego błędu, którego elitarny ludzki badacz nie byłby w stanie znaleźć. Różnica polega tylko na skali i kosztach.

„Luka między tym, co maszyna potrafi znaleźć, a tym, co potrafi człowiek, faworyzowała napastnika, który mógł zainwestować miesiące pracy w jeden bug. Zamknięcie tej luki niweluje długoterminową przewagę napastnika” – napisał Holley.

Anthropic deklaruje, że Mythos znalazł także tysiące podatności w głównych systemach operacyjnych i przeglądarkach, które są obecnie ujawniane producentom przez Glasswing. Jest też niepokojący kontekst: w dniu ogłoszenia programu Glasswing nieautoryzowani użytkownicy uzyskali dostęp do Mythos Preview, zgadując URL modelu w środowisku third-party vendor. Anthropic potwierdził, że bada incydent.

Cyfrowe FDA: rozważane, nie wprowadzone

6 maja w „Mornings with Maria” na Fox Business Kevin Hassett, dyrektor National Economic Council, ogłosił, że administracja rozważa rozporządzenie wykonawcze, które uporządkuje proces oceny modeli AI.

„Studiujemy możliwy executive order, który dałby wszystkim jasny roadmap, jak to ma działać i jak przyszłe modele AI, które potencjalnie tworzą podatności, powinny przejść przez proces, by były wypuszczane na rynek dopiero po udowodnieniu, że są bezpieczne – tak jak lek w FDA” – powiedział Hassett.

Tu trzeba uważać na nadinterpretację. Hassett mówił o „studied possibly”, nie o gotowym projekcie. Według Bloomberga i innych mediów branżowych nie wiadomo, czy ewentualne rozporządzenie nakładałoby na firmy obowiązek certyfikacji przed wejściem na rynek, czy tylko określało dobrowolny standard. Obecne umowy CAISI z Google, Microsoftem i xAI są dobrowolne. „Cyfrowe FDA” pozostaje na razie metaforą polityczną, nie systemem prawnym.

W tle są dwie kwestie. Pierwsza: Anthropic od marca 2026 jest formalnie sklasyfikowane przez Departament Obrony jako security risk – decyzja podtrzymana przez sędziów federalnych – mimo że firma od 2024 roku współpracowała z poprzednikiem CAISI. Druga: dotychczasowa polityka Trumpa wobec AI była zdecydowanie hands-off, więc obowiązkowe testy byłyby istotną zmianą.

Co mówią sceptycy?

Devin Lynch, były Director for Implementation and Assessment przy Office of the National Cyber Director w Białym Domu (obecnie Senior Director w Paladin Global Institute), na LinkedIn zwrócił uwagę na fundamentalny problem:

„Capability assessments są tyle warte, ile threat modele za nimi stojące. CAISI musi zdefiniować i opublikować, czego testuje, nie tylko z kim”.

To merytoryczna uwaga, nie polemiczna – bez jasnych standardów oceny każdy „test” staje się rytuałem. Drugi argument, podnoszony przez analityków cyberbezpieczeństwa cytowanych przez Cybernews, dotyczy geopolityki: centralizacja blueprintów najpotężniejszych modeli AI w jednej agencji rządowej tworzy ryzyko polityczne, w którym dostęp do federalnych kontraktów może zależeć od poziomu „compliance” z administracją.

Dla rynku polskiego najistotniejsza jest jedna implikacja – niezależnie od tego, czy USA wprowadzi obowiązkowe testy AI: standardy techniczne, które wypracuje CAISI, prawdopodobnie będą stanowić punkt odniesienia także dla EU AI Act i regulacji krajowych. Nie ma alternatywnego bench­marku oceny capabilities frontier modeli, z którego mogłaby skorzystać Komisja Europejska.

Źródła:

Komunikat NIST (5 maja 2026), CNN Business, Fox Business / The Hill / Bloomberg, Fortune, Al Jazeera, Cybersecurity Dive, Mozilla Blog, Schneier on Security, CIO Dive, Cybernews

Najczęściej zadawane pytania