Wyobraź sobie model AI, który węszy luki w systemach operacyjnych z precyzją cyfrowego ogara. Anthropic właśnie stworzyło Claude Mythos, ale zamiast go udostępnić, założyło mu kaganiec i zamknęło w sejfie – wszystko ze strachu, że hakerzy mogliby urządzić nam cyfrowy armagedon. Zamiast publicznej premiery, gigant postawił na Project Glasswing, wciągając do gry Apple, Microsoft i resztę technologicznej śmietanki.
TL;DR
- Claude Mythos Preview wykrył tysiące luk wysokiego ryzyka w najpopularniejszych systemach operacyjnych i przeglądarkach
- Anthropic wstrzymało publiczną premierę modelu, obawiając się jego wykorzystania przez grupy przestępcze
- Inicjatywa Project Glasswing zrzesza ponad 40 gigantów, w tym CrowdStrike, Cisco oraz Linux Foundation
- Firma przeznacza 100 mln dolarów w kredytach obliczeniowych na wsparcie bezpieczeństwa infrastruktury
- Trwają napięte rozmowy z rządem USA, mimo wcześniejszych prób zablokowania kontraktów firmy
Claude Mythos – AI, które widzi luki niewidzialne dla ludzi
Inżynierowie z Anthropic Labs powołali do życia Claude Mythos Preview, najnowszego członka rodziny Claude, który w kwestii wyszukiwania podatności w kodzie zostawia ludzkich ekspertów daleko w tyle. Co ciekawe, nie mamy tu do czynienia z dedykowanym narzędziem do cyberbezpieczeństwa, a z ogólnym modelem językowym, którego genialne zdolności programistyczne robią całą czarną robotę. Mike Krieger z Anthropic Labs ogłosił te rewelacje podczas konferencji HumanX w San Francisco, bez ogródek przyznając, że model namierzył tysiące luk wysokiego ryzyka w oprogramowaniu, z którego korzystamy każdego dnia.
Skala zjawiska poraża – najstarsza z wykrytych dziur ma 27 lat i spokojnie egzystowała w OpenBSD, systemie uchodzącym za synonim solidności. Innym przykładem jest 16-letni błąd w sofcie wideo, który przeszedł przez sito ponad 5 milionów testów i nikt go nie zauważył, dopóki nie spojrzało na niego AI. Model nie tylko bezbłędnie wskazuje palcem słabe punkty, ale potrafi też wygenerować instrukcję ich wykorzystania, co u wielu budzi uzasadnione ciarki na plecach. Ironia losu? Anthropic niedawno zaliczyło wpadkę z bezpieczeństwem, co tylko utwierdziło ich w przekonaniu, że ostrożności nigdy za wiele.
Warto w tym miejscu przypomnieć, że niedawno kod Claude Code wyciekł do sieci, co wywołało sporą burzę w branży. Ta sytuacja rzuca nowe światło na obecną paranoję firmy i ich desperackie próby kontrolowania dostępu do najbardziej zaawansowanych narzędzi, które mogłyby stać się bronią w rękach cyberprzestępców.
We released Claude Opus 4.6 just two months ago. Today we’re sharing some info on our new model, Claude Mythos Preview. pic.twitter.com/Dz6um6HAWZ
— Alex Albert (@alexalbert__) April 7, 2026
Project Glasswing – sojusz, który ma uratować software przed AI
Zamiast rzucać Mythos na pożarcie masom, Anthropic zdecydowało się na powołanie Project Glasswing – elitarnej koalicji ponad 40 organizacji, które trzymają rękę na pulsie najważniejszego oprogramowania na świecie. Wybrani partnerzy otrzymują dostęp do modelu, by wspólnie łatać dziury, zanim ktoś inny je wykorzysta, a Anthropic dorzuca do tego interesu 100 mln dolarów w formie kredytów na moce obliczeniowe. Na liście płac i współpracy znajdziemy takie marki jak CrowdStrike, Palo Alto Networks, Amazon, Apple, Microsoft, Cisco, Broadcom czy Linux Foundation.
Anthony Grieco z Cisco przyznał w oficjalnym komunikacie, że sztuczna inteligencja przekroczyła właśnie masę krytyczną, drastycznie zmieniając tempo generowania zagrożeń dla globalnej infrastruktury. Elia Zaitsev z CrowdStrike dodaje do tego ponury obraz rzeczywistości: okno czasowe między odkryciem nowej luki a realnym atakiem skurczyło się z miesięcy do zaledwie minut. To już nie jest partyzancka walka pojedynczych firm, a zorganizowana obrona, której owoce mają docelowo trafić do projektów open-source i producentów sprzętu. Project Glasswing łączy gigantów tech w sposób, jakiego dawno nie widzieliśmy w Dolinie Krzemowej.
Cała inicjatywa to jednak dopiero wierzchołek góry lodowej, bo skala problemu, jaką obnażył nowy model Claude, przerasta możliwości jakiejkolwiek pojedynczej korporacji. Bez szerokiego frontu obrony, opartego na współpracy największych graczy, łatanie dziur starszych niż niektórzy programiści byłoby syzyfową pracą.
Dlaczego Anthropic mówi „nie” publiczności? Ryzyka na wagę gospodarki
Modele AI weszły na poziom, na którym bez wysiłku deklasują topowych hakerów w znajdowaniu i eksploatowaniu luk – ostrzega Anthropic w swoim najnowszym wpisie. Uwolnienie Mythos do publicznego użytku mogłoby zdestabilizować światowe gospodarki, zagrozić bezpieczeństwu publicznemu, a nawet obronności mocarstw. Dlatego Mike Krieger postawił sprawę jasno: model nie trafi do szerokiego grona odbiorców, a specjaliści od cyberbezpieczeństwa będą go używać wyłącznie jako tarczy obronnej, mając przewagę czasową nad napastnikami.
Testy wewnętrzne udowodniły, że sztuczna inteligencja potrafi naprawiać błędy w kodzie w tempie, o którym ludzie mogą tylko pomarzyć. Ale jest też ciemna strona medalu – jeśli my mamy takie narzędzia, to przeciwnicy prędzej czy później też je opanują. Anthropic planuje teraz rygorystyczne testy zabezpieczeń na nadchodzącym modelu Claude Opus, zanim technologia klasy Mythos zostanie udostępniona komukolwiek poza ścisłym kręgiem. To dość ironiczne, że budują potężne AI do obrony, a jednocześnie panicznie boją się własnego dzieła i jego potencjalnych skutków.
„Okno między odkryciem luki a jej wykorzystaniem przez wroga skurczyło się – kiedyś miesiące, dziś minuty z AI” – Elia Zaitsev, CrowdStrike.
Kontekst polityczny – rząd USA i sądowe przepychanki
Mimo napiętej atmosfery, Anthropic prowadzi rozmowy z rządem USA na temat wykorzystania Mythos, co dzieje się w cieniu lutowego dekretu Białego Domu, który miał odciąć firmę od państwowych kontraktów. Sytuacja jest dynamiczna, bo sędzia federalny wstrzymał wykonanie tych restrykcji po stanowczym pozwie ze strony startupu. Jak już informowaliśmy, sędzia zatrzymał karę Pentagonu dla Anthropic, co na chwilę uratowało model Claude przed całkowitym wykluczeniem z sektora militarnego.
Cała afera zaczęła się od oskarżeń o zbyt „woke” zasady etyczne, które rzekomo miały paraliżować skuteczność AI, co doprowadziło do głośnego wyrzucenia firmy z administracji. Obecnie Anthropic pozywa rząd USA, walcząc o swoje dobre imię i pieniądze. Jednak teraz, gdy na stole leży narzędzie tak potężne jak Mythos, dialog z Waszyngtonem wraca do łask – bo w obliczu zagrożenia cybernetycznego ideologia musi ustąpić miejsca twardemu bezpieczeństwu narodowemu.
To idealny przykład na to, jak technologia splata się z wielką polityką: z jednej strony mamy urzędowe zakazy i czarne listy, a z drugiej palącą potrzebę posiadania cyfrowego miecza, który ochroni infrastrukturę przed atakami z zewnątrz.
Co to oznacza dla cyberbezpieczeństwa? Nadzieja czy nowa era ataków
Mythos to prawdziwy skok cywilizacyjny: model wykręcił maksymalne wyniki w benchmarku Cybench i bez problemu radzi sobie w pełnych scenariuszach cyber range, tworząc exploity chociażby na Firefoxa. Pisaliśmy o tym przy okazji sukcesu, gdy Claude znalazł 22 luki w Firefoxie, zawstydzając ludzkich testerów. Jednak eksperci z serwisu Platformer studzą entuzjazm, ostrzegając, że to samo narzędzie, które dziś nas broni, jutro może stać się fundamentem dla nowej fali zautomatyzowanych ataków.
Optymiści widzą w AI szansę na ostateczne wygranie wyścigu z hakerami dzięki błyskawicznym łatkom i skali działania nieosiągalnej dla człowieka. Pesymiści z kolei wieszczą, że hakerzy wyposażeni w podobne modele zrównają szanse, a internet stanie się polem bitwy botów. Anthropic stara się grać rolę odpowiedzialnego lidera, raportując wszystkie znaleziska do odpowiednich podmiotów. Największą ironią jest fakt, że model wcale nie był trenowany pod kątem cyberbezpieczeństwa – jego geniusz w kodowaniu okazał się po prostu efektem ubocznym dążenia do stworzenia idealnego modelu językowego.
Patrząc w przyszłość, jesteśmy świadkami preludium do ery, w której sztuczna inteligencja będzie jednocześnie najlepszym strażnikiem i najgroźniejszym włamywaczem. Anthropic stąpa po kruchym lodzie, próbując zachować balans między innowacją a bezpieczeństwem, ale presja ze strony rynku i konkurencji będzie tylko rosła.
Źródła:
The Guardian (https://www.theguardian.com/technology/2026/apr/08/anthropic-ai-cybersecurity-software), anthropic.com/glasswing, red.anthropic.com/2026/mythos-preview, anthropic.com/claude-mythos-preview-system-card, X posts @AnthropicAI
