Wyobraźcie sobie scenariusz, w którym sztuczna inteligencja wchodzi „na pełnej” do kodu jednej z najbezpieczniejszych przeglądarek świata i w czternaście dni wyłapuje więcej błędów niż armia testerów przez długie miesiące. Anthropic, wykorzystując swój najnowszy model Claude Opus 4.6, dokonał właśnie takiego wyczynu w ramach oficjalnej współpracy z Mozillą. Czy to już zapowiadana rewolucja w cyberbezpieczeństwie, czy może tylko spektakularny, jednorazowy popis możliwości algorytmów?

TL;DR

  • Model Claude Opus 4.6 wykrył 22 luki bezpieczeństwa w kodzie Firefoxa, z czego 14 uznano za wysokiego ryzyka.
  • Cała operacja trwała zaledwie dwa tygodnie i objęła skanowanie niemal 6000 plików napisanych w C++.
  • Większość podatności została już załatana w wersji Firefox 148, która zadebiutowała w lutym 2026 roku.
  • Choć AI świetnie tropi błędy, stworzenie działającego exploita kosztowało 4000 dolarów i powiodło się tylko dwa razy.
  • Sukces Claude'a odpowiada za jedną piątą wszystkich krytycznych poprawek w Firefoxie z całego 2025 roku.

Jak wystartowało polowanie na luki?

Specjaliści z „red teamu” Anthropic, czyli grupy zajmującej się symulowaniem ataków, rozpoczęli sprawdzian Claude Opus 4.6 od testów na archiwalnych podatnościach Firefoxa. Gdy model bez zająknięcia odtworzył stare błędy, rzucono go na głęboką wodę – do analizy aktualnego kodu. Na pierwszy ogień poszedł silnik JavaScript, który od lat uchodzi za najbardziej newralgiczny punkt, wystawiony na ataki ze strony złośliwych skryptów webowych.

Efekt? Wystarczyło zaledwie 20 minut, by Claude namierzył lukę typu „użycie po zwolnieniu pamięci” (ang. Use After Free). To klasyczny błąd, w którym program próbuje odwołać się do zwolnionego już zasobu, co otwiera hakerom furtkę do nadpisania danych własnym kodem. Po tym sukcesie AI rozszerzyło skanowanie na resztę przeglądarki, masowo generując raporty z testami błędów i gotowymi propozycjami łatek. Ostatecznie Mozilla otrzymała 112 unikalnych zgłoszeń za pośrednictwem systemu Bugzilla.

Cały proces miał charakter iteracyjny: Claude otrzymywał informację zwrotną w czasie rzeczywistym od ludzi weryfikujących zadania, co pozwalało mu na bieżąco doprecyzowywać swoje znaleziska i eliminować pomyłki.

Bilans: 22 luki i rekordowa efektywność

W ciągu czternastu dni Claude prześwietlił niemal 6000 plików źródłowych C++ i zidentyfikował 22 potwierdzone luki, przy czym Mozilla oficjalnie uznała 14 z nich za błędy wysokiego ryzyka. To wynik wręcz zawstydzający dla tradycyjnych metod – liczba ta przewyższa statystyki z jakiegokolwiek pojedynczego miesiąca 2025 roku, biorąc pod uwagę wszystkie źródła zgłoszeń. Mówimy o niemal 20% wszystkich krytycznych błędów naprawionych w całym ubiegłym roku.

Mozilla przypisała tym znaleziskom 22 numery CVE, a lwia część poprawek została zaimplementowana w Firefoxie 148 w lutym 2026 roku, chroniąc setki milionów użytkowników na całym świecie. Pozostałe niedociągnięcia mają zostać wyeliminowane w nadchodzących aktualizacjach. Co istotne, raporty od AI nie były „bełkotem” – zawierały konkretne przypadki testowe, dowody koncepcji (PoC) oraz gotowy kod naprawczy, co drastycznie skróciło czas pracy programistów.

Trzeba przyznać, że to spora ironia losu: Firefox uchodzi za jeden z najlepiej sprawdzonych projektów open source, regularnie męczony przez „fuzzing” i zaawansowane analizy statyczne. Tymczasem AI weszło do gry i bez trudu wyłapało to, co przez lata umykało ludzkiemu oku.

AI świetny detektyw, ale exploitów nie skleci

Choć Claude okazał się genialnym detektywem, to jako haker-praktyk wypadł raczej blado. Gdy zespół Anthropic kazał mu przygotować exploity – czyli kody demonstrujące realne przejęcie kontroli, np. poprzez odczyt prywatnych plików – wyniki były mizerne. Na kredyty API wydano około 4000 dolarów przy setkach prób, a realny sukces odnotowano zaledwie dwa razy. Co więcej, te prymitywne ataki działały wyłącznie w sterylnych środowiskach testowych, pozbawionych nowoczesnych mechanizmów ochronnych, takich jak „sandbox”.

To wyraźnie pokazuje obecną dysproporcję w rozwoju technologii: modele graniczne, takie jak Opus 4.6, są mistrzami w tropieniu błędów w logice, ale budowanie wieloetapowych, złożonych ataków wciąż wykracza poza ich zasięg. Anthropic lojalnie jednak ostrzega, że ten stan rzeczy nie potrwa wiecznie, a deweloperzy powinni wykorzystać ten czas na radykalne wzmocnienie swoich zabezpieczeń.

Szczegółowa analiza jednego z takich exploitów pojawiła się na blogu red.anthropic.com, choć ze względów bezpieczeństwa zrezygnowano z publikacji pełnego kodu źródłowego.

Perspektywa Mozilla i plany na przyszłość

Inżynierowie Mozilli, początkowo nastawieni sceptycznie do raportów generowanych przez AI (obawiając się zalewu fałszywych alarmów), błyskawicznie zmienili zdanie po weryfikacji danych. Skala i precyzja odkryć zrobiły na nich ogromne wrażenie, a niektórzy porównują ten przełom do pierwszych sukcesów automatycznego fuzzingu sprzed lat. Obecnie Mozilla testuje model Claude wewnętrznie, by wspierał ich własne procesy analityczne.

Anthropic nie zamierza na tym poprzestać i zapowiada ekspansję: w planach jest raportowanie luk w kluczowych projektach, takich jak jądro Linuksa, oraz rozwój narzędzi do automatycznego łatania dziur. Firma udostępniła już Claude Code Security w ramach wczesnego dostępu badawczego. Obie organizacje podkreślają przy tym wagę skoordynowanego ujawniania podatności (ang. CVD), tworząc nowe standardy współpracy z twórcami oprogramowania open source.

Dla nas, obserwatorów rynku technologicznego, to jasny sygnał, że sztuczna inteligencja zmienia reguły gry w cyberbezpieczeństwie. Choć brzmi to ironicznie, na razie AI skuteczniej pomaga nam się bronić, zanim na dobre nauczy się nas atakować.

Co to znaczy dla open source i deweloperów?

To partnerstwo to potężny dowód na potencjał AI w świecie otwartego oprogramowania. Możliwość błyskawicznego skanowania milionów linii kodu to tempo, któremu żaden człowiek nie jest w stanie dorównać. Pojawia się jednak pewne „ale” – powszechny dostęp do narzędzi kodujących generuje też masę niskiej jakości zgłoszeń (merge requestów), co może sparaliżować pracę opiekunów mniejszych projektów.

Anthropic apeluje o podwojenie wysiłków na rzecz tworzenia bezpieczniejszego kodu od podstaw, bo gdy modele językowe w końcu opanują sztukę tworzenia exploitów, skala problemów gwałtownie wzrośnie. Dla Firefoxa ten eksperyment to potężny zastrzyk bezpieczeństwa: luki usunięte w lutym 2026 roku to więcej niż bilans z całego 2025 roku. Warto z uwagą śledzić postępy Claude Opus 4.6, zwłaszcza że model ten potrafi już samodzielnie budować zespoły agentów.

Smaczku całej sprawie dodaje fakt, że podczas gdy Pentagon określił Anthropic mianem ryzyka dla łańcucha dostaw, ich technologia właśnie uratowała jedną z najważniejszych przeglądarek na rynku. To bez wątpienia ironia roku.

Źródła: TechCrunch, Anthropic.com/news/mozilla-firefox-security, blog.mozilla.org/en/firefox/hardening-firefox-anthropic-red-team, WSJ, X.com/AnthropicAI

Najczęściej zadawane pytania