Wyobraź sobie, że Twój ulubiony model AI trafia na czarną listę armii tylko dlatego, że jego twórcy nie chcą pomagać w zabijaniu. Anthropic właśnie wygrało pierwszą rundę sądowego starcia z Pentagonem, a sędzia prowadząca sprawę uznała działania rządu za formę odwetu. To dopiero początek brutalnej batalii o to, gdzie kończy się technologia, a zaczyna czysta etyka.
TL;DR
- Sędzia Rita Lin wydała tygodniowy zakaz oznaczania Anthropic jako ryzyka w łańcuchu dostaw
- Pentagon próbował ukarać firmę za odmowę wykorzystania Claude w autonomicznej broni śmiertelnej
- Mimo sporu, Departament Obrony (DoD) używał modelu do selekcji celów podczas nalotów na Iran
- Wyrok chroni wolność słowa korporacji, opierając się na pierwszej poprawce do konstytucji USA
- Potencjalne straty finansowe Anthropic mogły sięgnąć miliardów dolarów
Sędzia Lin wchodzi do gry z hamulcem
W czwartek federalna sędzia Rita Lin z Sądu Okręgowego dla Północnego Dystryktu Kalifornii wydała tymczasowy zakaz, skutecznie mrożąc karne zapędy Pentagonu wobec Anthropic. Choć formalnie blokada obowiązuje tylko przez tydzień, sędzia dała jasno do zrozumienia, że administracja rządowa mocno przelicytowała. Próba oznaczenia twórców Claude jako ryzyka w łańcuchu dostaw została określona jako działanie arbitralne i pozbawione podstaw prawnych.
Podczas wtorkowej rozprawy Lin nie zamierzała owijać w bawełnę i punktowała prawników reprezentujących rząd. Zapytała wprost, dlaczego sekretarz obrony Pete Hegseth ogłosił zakaz w mediach społecznościowych, skoro nie miał ku temu żadnego umocowania w przepisach. Jej komentarz, że sytuacja wygląda na „próbę okaleczenia Anthropic”, idealnie oddaje absurd całego zamieszania. Zamiast iść na totalną wojnę wizerunkową, Pentagon mógł po prostu kulturalnie wypowiedzieć umowę.
Ten sądowy unik daje Anthropic chwilę niezbędnego oddechu. Na ten moment agencje federalne nie mogą zastąpić modelu Claude innymi rozwiązaniami, co mocno krzyżuje szyki urzędnikom. Technologia firmy jest bowiem tak głęboko zintegrowana z systemami państwowymi, że nagłe wycięcie jej z ekosystemu wywołałoby logistyczny paraliż.
Dlaczego Anthropic powiedziało „nie” armii?
Cały ten cyrk trwa od miesięcy i ogniskuje się wokół twardego stanowiska Anthropic. Firma kategorycznie odmówiła zgody na wykorzystanie modelu Claude w pełni autonomicznych systemach broni śmiertelnej oraz do masowej inwigilacji obywateli na terenie USA. Zarząd wyznaczył grubą, czerwoną linię etyczną, co doprowadziło Departament Obrony do szewskiej pasji. Jak już wspominaliśmy w artykule o pozwie, mamy tu do czynienia z czołowym zderzeniem idealizmu z brutalną realpolitik.
Anthropic stoi na stanowisku, że amerykańska konstytucja zabrania rządowi karania prywatnego podmiotu za korzystanie z wolności słowa – w tym przypadku za ich własną politykę bezpieczeństwa i użytkowania AI. W marcowym pozwie prawnicy firmy podkreślali, że działania Pentagonu są bezprecedensowe i zwyczajnie nielegalne. Sędzia Lin przychyliła się do tej argumentacji, zauważając, że narzucanie ograniczeń w użytkowaniu softu nie jest tożsame z planowaniem sabotażu.
Największa ironia? Pentagon, mimo publicznego obrażania się na Anthropic, wciąż namiętnie korzystał z Claude, chociażby do analizy skutków uderzeń rakietowych podczas ostatnich napięć z Iranem. Wygląda na to, że armia uwielbia tę technologię, pod warunkiem, że zasady etyczne nie będą jej przeszkadzać w robieniu porządków na świecie.
Argumenty rządu padły na kamienne serce sędzi
Prawnicy Departamentu Obrony próbowali przekonywać sąd, że wpisy Hegsetha na platformie X to tylko prywatne opinie bez mocy sprawczej, które nie wyrządzają firmie realnej krzywdy. Rita Lin jednak nie kupiła tej narracji. Zastanawiała się głośno, dlaczego szef resortu obrony rzuca takimi oskarżeniami bez żadnego pokrycia w faktach. Rząd brnął dalej, twierdząc, że w każdej chwili może porzucić Claude i przesiąść się na inne modele AI.
Sędzia pozostała nieugięta, uznając, że etykieta „ryzyka w łańcuchu dostaw” to w tym przypadku klasyczna kara za niepokorne poglądy firmy. Nie znaleziono dowodów na realne zagrożenie dla bezpieczeństwa narodowego, a jedynie na chęć odwetu za upór w kwestiach moralnych. Oliwy do ognia dolał sam Hegseth, nazywając Anthropic „radykalnie lewicową korporacją AI”, co tylko potwierdziło polityczne tło całego sporu.
„Departament Obrony nie przedstawił żadnej racjonalnej podstawy, by z faktu, że Anthropic nalega na przestrzeganie ograniczeń użytkowania, wyciągać wniosek, że firma stanie się sabotażystą” – napisała Lin w uzasadnieniu. To potężny cios w wizerunek Pentagonu, który przyzwyczaił się do tego, że kontrahenci potulnie wykonują każde polecenie.
Claude w akcji: od biura do pola bitwy
Mimo trwającej wojny podjazdowej w sądach, Departament Obrony ani myślał rezygnować z możliwości Claude na polu walki. Z raportów wynika, że model był intensywnie wykorzystywany do selekcji celów oraz analizowania efektów ataków rakietowych wymierzonych w Iran. Tylko w ciągu pierwszej doby konfliktu sztuczna inteligencja pomogła namierzyć ponad tysiąc obiektów. To gorzka ironia, że narzędzie stworzone z myślą o bezpieczeństwie i etyce staje się kluczowym elementem machiny wojennej.
Sytuacja ta pokazuje, jak mocno Claude wpiął się w krwiobieg amerykańskiej armii. Próba zastąpienia go w tej chwili innym modelem byłaby logistycznym koszmarem, szczególnie w zamkniętych, tajnych sieciach wojskowych. Nawet po głośnych zapowiedziach administracji, wojsko po cichu robiło swoje. Trump wyrzucił ich z hukiem przed kamerami, ale w zaciszu gabinetów technologia Anthropic wciąż pracowała na pełnych obrotach.
Anthropic nie walczy tylko o ideę – gra toczy się o gigantyczne pieniądze. Firma szacuje, że pełne embargo na ich usługi w sektorze publicznym mogłoby przynieść straty liczone w miliardach dolarów. Wyrok sędzi Lin daje im czas na przegrupowanie sił i przygotowanie się do decydującego starcia o przyszłość cywilnego AI w służbie mundurowych.
Co to znaczy dla AI i armii?
Decyzja sądu w Kalifornii to niezwykle ważny precedens. Pokazuje, że twórcy sztucznej inteligencji mogą stawiać granice etyczne bez panicznego strachu przed państwowym aparatem przymusu. Okazuje się, że pierwsza poprawka do konstytucji chroni nie tylko obywateli, ale i firmy przed próbami cenzury realizowanej za pomocą sankcji gospodarczych. Pentagon musi teraz zacząć grać według reguł i merytorycznie uzasadniać swoje decyzje.
Szerszy kontekst tej sprawy jest jeszcze ciekawszy. Konflikt z Iranem obnażył całkowitą zależność nowoczesnej armii od prywatnych dostawców AI. Bez Claude projekty takie jak Maven – zaawansowany system identyfikacji celów na zdjęciach satelitarnych – tracą swoją skuteczność. Jednak zmuszanie inżynierów do porzucenia ich kręgosłupa moralnego pod groźbą bankructwa trąci totalitaryzmem, nawet jeśli w tle słychać hymn narodowy.
Największym błędem rządu było pójście na czołowe zderzenie. Gdyby Pentagon po prostu nie przedłużył kontraktów, sprawa pewnie rozeszłaby się po kościach. Zamiast tego wywołano medialny skandal, który armia właśnie przegrywa. Możemy być pewni, że to nie koniec – Departament Obrony z pewnością złoży apelację, a my będziemy świadkami kolejnych odcinków tego technologicznego thrillera.
Źródła:
The Guardian, The New York Times, WIRED, The Verge, TechCrunch, WSJ, CNBC, CNN
