Amerykański gigant Anthropic właśnie wyłożył karty na stół, oskarżając trzy chińskie laboratoria AI o przemysłową kradzież technologii. Wykorzystując sprytną metodę destylacji, rywale skopiowali unikalne zdolności modelu Claude, bezczelnie omijając wszelkie cyfrowe zasieki. Czy to oficjalne otwarcie frontu w wielkiej wojnie o dane, która zdefiniuje przyszłość sztucznej inteligencji?

TL;DR

  • Anthropic wykrył masowe ataki destylacyjne ze strony DeepSeek, Moonshot AI i MiniMax – odnotowano ponad 16 mln interakcji.
  • Napastnicy użyli armii 24 tys. fałszywych kont i serwerów proxy, by obejść blokady geograficzne nałożone na Chiny.
  • Firma MiniMax wykazała się największą bezczelnością, generując 13 mln zapytań skupionych na kodowaniu agentowym.
  • Nielegalna destylacja kastruje modele z zabezpieczeń, co otwiera furtkę do tworzenia broni biologicznej i cyberataków.
  • Twórcy Claude apelują do branży i rządów o wspólny front przeciwko technologicznemu pasożytnictwu.

Czym jest destylacja modelu i dlaczego budzi kontrowersje”

Destylacja modelu to proces, w którym mniejszy system AI (uczeń) trenuje na odpowiedziach generowanych przez potężniejszy model (nauczyciel), taki jak Claude. Choć firmy stosują tę metodę legalnie do optymalizacji własnych kosztów, w rękach konkurencji staje się ona wytrychem do kradzieży własności intelektualnej. Anthropic alarmuje, że chińskie laboratoria wdrożyły ten proceder na skalę przemysłową, budując swoje bazy treningowe zerowym kosztem badawczym.

W normalnych warunkach taka technika przyspiesza innowacje, jednak tutaj służy do omijania restrykcji eksportowych na hardware i oszczędzania miliardów dolarów na R&D. Destylacja skraca rozwój z długich lat do zaledwie kilku tygodni, co brutalnie niweluje przewagę technologiczną Doliny Krzemowej. Trudno uznać za przypadek, że chińskie modele, jak choćby głośny R1 od DeepSeek, nagle zaczęły deptać po piętach światowej czołówce.

Cały proceder opiera się na wyciąganiu tzw. łańcucha myśli (chain-of-thought), czyli szczegółowego procesu rozumowania Claude krok po kroku. To gotowy przepis na inteligencję, który Chińczycy po prostu przepisali do swoich systemów.

Szczegóły ataków trzech chińskich laboratoriów

DeepSeek skoncentrowało się na logice Claude, kradnąc dane do budowy modeli nagród w procesie uczenia ze wzmocnieniem oraz szukając luk w cenzurze dotyczącej tematów politycznych. Wykonali ponad 150 tysięcy interakcji, stosując podejrzanie powtarzalne wzorce zapytań. Z kolei Moonshot AI postawiło na zdolności agentowe, pisanie kodu, analitykę oraz wizję komputerową, generując przy tym ponad 3,4 miliona zapytań.

Rekordzistą okazał się MiniMax, który wygenerował ponad 13 milionów interakcji, celując głównie w automatyzację programowania i zarządzanie narzędziami – to aż trzy czwarte całego wykrytego ruchu. Łącznie te trzy podmioty wycisnęły 16 milionów interakcji z serwerów Anthropic. Ataki uderzyły w najczulsze punkty, jak autonomiczne systemy, o których wspominaliśmy przy okazji Claude Opus 4.6 budującego własne zespoły agentów.

Agresorzy wykazali się niezwykłą zwinnością – MiniMax potrafił przekierować swój ruch na nowy model w zaledwie 24 godziny po jego oficjalnej premierze.

Jak chińskie firmy omijały zabezpieczenia Anthropic?

Chińscy inżynierowie wykorzystali komercyjne serwery proxy oraz architekturę typu „hydra” – rozproszoną sieć tysięcy kont, która nie posiada jednego słabego punktu. Dzięki temu destylacyjny szum idealnie mieszał się z ruchem generowanym przez zwykłych użytkowników. Pojedyncza sieć potrafiła zarządzać armią 20 tysięcy profili jednocześnie, korzystając ze wspólnych systemów płatności i precyzyjnego timingu. Gdy tylko system banował jedno konto, na jego miejsce wskakiwał kolejny klon.

Stosowano masowo te same prompty, np. „jesteś ekspertem analitykiem danych z rygorem statystycznym”, powtarzając je dziesiątki tysięcy razy w różnych konfiguracjach. Pozwalało to na precyzyjne wyciąganie konkretnych umiejętności i śladów rozumowania modelu. W ten sposób 24 tysiące fałszywych kont skutecznie zakpiło z zakazu dostępu do usług Anthropic na terenie Chin.

Eksperci bezpieczeństwa przypisali te kampanie konkretnym firmom z bardzo wysokim stopniem pewności, analizując adresy IP, metadane oraz infrastrukturę płatniczą przy wsparciu partnerów technologicznych.

Jak Anthropic wykryło i zablokowało destylację?

Firma nie przyglądała się temu biernie – stworzono zaawansowane klasyfikatory i systemy analizy behawioralnej, które wyłapują nienaturalne wzorce, takie jak masowe odpytywanie o łańcuchy myślowe. Ruch generowany przez Chińczyków drastycznie różnił się od ludzkiego, wykazując obsesyjne skupienie na niszowych tematach, jak kodowanie agentowe. MiniMax został złapany niemal na gorącym uczynku, gdy Anthropic śledziło drogę danych od ich serwerów aż po premierę gotowego modelu.

W odpowiedzi zaostrzono weryfikację kont dla sektora edukacyjnego i startupów. Wprowadzono również subtelne zmiany na poziomie samej architektury modelu, by generowane odpowiedzi były mniej przydatne do trenowania innych systemów, nie psując przy tym doświadczenia zwykłego użytkownika. To właśnie klasyfikatory behawioralne okazały się najskuteczniejszą bronią w tej cyfrowej partyzantce.

Anthropic przekazało już szczegółowe raporty innym laboratoriom AI, dostawcom chmury oraz organom rządowym, przyznając otwarcie, że w pojedynkę nie zatrzymają tej fali.

Zagrożenia i apel o wspólną obronę

Największym problemem jest fakt, że proces destylacji kastruje modele z wbudowanych bezpieczników. Blokady uniemożliwiające Claude pomaganie w tworzeniu broni biologicznej czy planowaniu cyberataków po prostu znikają, a tak „oczyszczone” systemy trafiają prosto w ręce chińskiej armii i wywiadu. To realne ryzyko niekontrolowanego rozprzestrzeniania się niebezpiecznych technologii. Warto przypomnieć, że OpenAI wcześniej wysunęło podobne oskarżenia wobec DeepSeek w kontekście modeli GPT.

Anthropic wzywa teraz całą branżę do ścisłej współpracy: wymiany danych wywiadowczych i lobbowania za twardszą kontrolą eksportu procesorów. Jeśli nic się nie zmieni, amerykańska dominacja w AI szybko przejdzie do historii. Brak safeguards w destylatach to tykająca bomba, która może wybuchnąć w najmniej oczekiwanym momencie.

Eksperci, w tym znany analityk Dmitri Alperovitch, sugerują, że to ostateczny dowód na konieczność całkowitego odcięcia Chin od nowoczesnych chipów – ich postępy to w dużej mierze efekt sprawnego kopiowania, a nie przełomowych innowacji.

Źródła: The Guardian (theguardian.com/technology/2026/feb/23/us-ai-anthropic-china), Anthropic official (anthropic.com/news/detecting-and-preventing-distillation-attacks), TechCrunch, The Verge, The Hacker News, VentureBeat

Najczęściej zadawane pytania