Wyobraźcie sobie taką sytuację: budujecie jeden z najlepszych modeli AI na planecie, a rząd USA nagle wystawia Wam „wilczy bilet”, bo nie chcecie przerobić go na cyfrowego zabójcę lub szpiega. Anthropic właśnie stracił cierpliwość i złożył pozew, na co Biały Dom odpowiedział odpaleniem retorycznej rakiety z napisem „radykalna, lewicowa firma woke”. To nie jest scenariusz taniego thrillera, to nowa wojna o granice etyki w sztucznej inteligencji.

TL;DR

  • Anthropic złożył pozew przeciwko Departamentowi Wojny i Pete’owi Hegsethowi za wpisanie firmy na listę podmiotów stwarzających ryzyko.
  • Bezpośrednią przyczyną konfliktu była odmowa dostosowania modelu Claude do celów autonomicznej broni śmiertelnej i masowej inwigilacji.
  • Biały Dom oficjalnie nazwał Anthropic „radykalnie lewicową firmą woke”, która zagraża bezpieczeństwu narodowemu USA.
  • Pozew zyskał szerokie wsparcie od organizacji takich jak EFF i Cato Institute oraz pracowników Google i OpenAI.
  • Dario Amodei deklaruje chęć współpracy w obszarze badań i rozwoju, ale wyklucza tworzenie systemów w pełni autonomicznych.

Jak do tego doszło: twarde negocjacje z Pentagonem

Anthropic przez długie miesiące prowadził rozmowy z Departamentem Wojny, próbując ustalić cywilizowane warunki wykorzystania modeli Claude. Firma była skłonna pójść na ustępstwa w wielu kwestiach militarnych, w tym w zakresie wywiadu zagranicznego, jednak postawiła twardą, czerwoną linię przy masowej inwigilacji krajowej oraz tworzeniu w pełni autonomicznej broni śmiertelnej.

Gdy Anthropic nie ugiął się pod presją, prezydent Trump wydał kategoryczną dyrektywę: wszystkie agencje federalne mają natychmiast zerwać współpracę z dostawcą. Zaledwie kilka godzin później sekretarz wojny Pete Hegseth oficjalnie oznaczył firmę jako zagrożenie w łańcuchu dostaw dla bezpieczeństwa narodowego. To drastyczny ruch, który do tej pory rezerwowano dla wrogich mocarstw, a nie dla rodzimych, amerykańskich przedsiębiorstw technologicznych.

Ta decyzja w praktyce odcina Anthropic od jakichkolwiek kontraktów z podwykonawcami wojska, uderzając nawet w ich czysto komercyjne operacje.

Argumenty w pozwie: wolność słowa kontra samowola władzy

Prawnicy Anthropic nie tracili czasu i uderzyli dwutorowo: główny pozew trafił do Sądu Okręgowego dla Północnego Okręgu Kalifornii przeciwko Hegsethowi i licznym agencjom, a drugi wniosek wpłynął do Sądu Apelacyjnego D.C. Circuit. Firma argumentuje, że administracja brutalnie złamała pierwszą poprawkę do konstytucji, stosując represje za publiczne wyrażanie opinii o konieczności nakładania ograniczeń na własne modele AI.

Co więcej, w grę wchodzi naruszenie piątej poprawki, czyli prawa do rzetelnego procesu. Procedura uznania firmy za zagrożenie w łańcuchu dostaw została przeprowadzona „na skróty”, bez zachowania standardów. To narzędzie miało chronić USA przed sabotażem ze strony obcych wywiadów, a nie służyć jako kij na firmy odmawiające podpisania kontraktu.

„Dyrektywa Trumpa nakazująca natychmiastowe porzucenie technologii Anthropic rażąco wykracza poza uprawnienia nadane przez Kongres” – czytamy w dokumentach sądowych.

Szczyt ironii? Anthropic przypomina, że wcześniej ten sam Departament Wojny nie miał problemu z zaakceptowaniem identycznych warunków współpracy.

Biały Dom nie gryzie się w język: etykiety i ultimatum

Reakcja administracji była szybka i utrzymana w typowym dla niej, ostrym tonie. Rzecznik Białego Domu stwierdził bez ogródek:

„Prezydent Trump nigdy nie pozwoli, aby radykalnie lewicowa firma spod znaku woke zagrażała bezpieczeństwu narodowemu, próbując dyktować warunki najpotężniejszej armii świata”.

Pete Hegseth poszedł jeszcze dalej, oskarżając Anthropic o „pokaz arogancji i zdrady” za to, że firma nie chciała udostępnić swoich modeli na każdy legalny cel wskazany przez wojsko.

Sam Trump na platformie Truth Social skwitował działania firmy jako „katastrofalny błąd”, który rzekomo naraża życie Amerykanów. Klamka zapadła: rządowi kontrahenci dostali pół roku na przesiadkę na rozwiązania „bardziej patriotycznych” dostawców. Wygląda na to, że w słowniku Hegsetha patriotyzm oznacza po prostu bezkrytyczne przyklepywanie każdego pomysłu generałów.

Szeroki front wsparcia dla twórców Claude

Wokół Anthropic zaczyna formować się potężna koalicja. Głos w sprawie zabrały takie organizacje jak FIRE, Electronic Frontier Foundation (EFF) czy Cato Institute, składając opinie typu amicus curiae. Eksperci prawni alarmują, że mamy do czynienia z „jawnie odwetowymi” działaniami rządu, które mogą skutecznie zakneblować inne firmy technologiczne, bojące się utraty lukratywnych kontraktów za posiadanie własnego zdania.

Nawet pracownicy konkurencji, w tym Google (będącego inwestorem Anthropic) oraz OpenAI, podpisali się pod wspólnym listem. Ostrzegają w nim, że masowa inwigilacja napędzana przez AI to prosta droga do demontażu demokracji, a dzisiejsze modele po prostu nie są gotowe na powierzanie im autonomicznych decyzji o eliminacji celów.

„Takie działania rządu mrożą profesjonalną dyskusję o realnych korzyściach i zagrożeniach płynących z systemów sztucznej inteligencji” – podkreślają sygnatariusze.

To jasny sygnał, że branża AI potrafi się zjednoczyć, gdy etyka zawodowa staje w szranki z politycznym naciskiem.

Dario Amodei wyjaśnia: tu stawiamy granicę

CEO Anthropic, Dario Amodei, wydał 26 lutego obszerne oświadczenie, w którym precyzyjnie wyłożył karty na stół. Firma nie jest pacyfistycznym startupem – popiera wykorzystanie AI w systemach częściowo autonomicznych (podobnie jak ma to miejsce na froncie na Ukrainie), ale kategorycznie sprzeciwia się systemom w pełni autonomicznym, w których człowiek zostaje całkowicie wyłączony z procesu decyzyjnego. Według niego obecna technologia jest zbyt zawodna, by powierzać jej kwestie życia i śmierci.

Kwestia inwigilacji budzi równie duże emocje. Amodei zauważa, że rząd skupuje ogromne ilości danych o obywatelach bez żadnych nakazów, a AI pozwala połączyć te kropki w przerażająco dokładny profil każdego z nas. To, zdaniem szefa Anthropic, jest nie do pogodzenia z demokratycznymi wartościami. Firma oferuje pomoc w badaniach nad bezpieczeństwem, ale nie zamierza dostarczać systemów pozbawionych bezpieczników (guardrails).

Anthropic stawia sprawę jasno: po miesiącach prób porozumienia nie zamierza ulegać szantażowi. Uznanie ich za „ryzyko” to niebezpieczny precedens dla całego sektora technologicznego.

Co to oznacza dla przyszłości branży AI?

Ten spór może wywołać prawdziwe trzęsienie ziemi w Dolinie Krzemowej. Choć giganci tacy jak Microsoft, Google i Amazon zapewniają, że Claude pozostanie dostępny dla klientów komercyjnych, to blokada kontraktów federalnych oznacza stratę miliardów dolarów. Tymczasem OpenAI, wykazując się „oportunizmem na poziomie eksperckim”, już podpisało nowe umowy z Pentagonem, o czym pisaliśmy w kontekście wsparcia OpenAI dla administracji.

Analitycy ostrzegają: jeśli rząd wygra, zyska potężne narzędzie do wymuszania posłuszeństwa na każdej firmie AI pod pretekstem „bezpieczeństwa narodowego”. Anthropic walczy więc o coś więcej niż tylko o swoje – walczy o prawo do odmowy bez ponoszenia drastycznych kar finansowych. Z nutką ironii można stwierdzić, że w erze Trumpa 2.0 etyka AI zderzyła się czołowo z doktryną „Ameryka przede wszystkim”.

Będziemy uważnie śledzić ten proces – to najważniejszy test granic władzy nad technologią w tej dekadzie.

Źródła: Ars Technica, TechCrunch, The Verge, Wired, Anthropic.com, Reuters, NPR

Najczęściej zadawane pytania