Wyobraź sobie potężny tłum 100 tysięcy ludzi, którzy maszerują ulicami Waszyngtonu, domagając się globalnego zakazu prac nad superinteligencją. Brzmi to jak scenariusz filmu katastroficznego, ale to jak najbardziej realny plan – pod warunkiem, że wystarczająco wielu z nas złoży deklarację. Na ten moment jest ich raptem 740, a licznik nieubłaganie tyka.

TL;DR

  • Marsz „Nie budujcie tego” w Waszyngtonie dojdzie do skutku tylko po zebraniu 100 tysięcy deklaracji.
  • Głównym celem jest wymuszenie międzynarodowego traktatu zakazującego budowy sztucznej superinteligencji (ASI).
  • Organizatorzy ostrzegają: ASI stworzona obecnymi metodami doprowadzi do zagłady ludzkości.
  • Strona ifanyonebuildsit.com zebrała już 1311 zapisów na listę powiadomień.
  • Wpis Raemona na LessWrong z 2 lutego 2026 roku wzywa do szybkiego przekroczenia progu 1000 deklaracji.

Mechanizm warunkowego finansowania społecznościowego dla protestu

Strona ifanyonebuildsit.com/march działa niczym platforma crowdfundingowa na sterydach, z tą różnicą, że zamiast gotówki zbiera deklaracje udziału w proteście. Wpisujesz maila, klikasz „zobowiązuję się” i gotowe – Twój głos liczy się tylko wtedy, gdy zbierze się dokładnie 100 tysięcy osób o podobnych poglądach. Jeśli nie dobiją do tego progu? Żadnego marszu nie będzie, a wysiłki zostaną przekierowane gdzie indziej. To całkiem sprytny sposób na uniknięcie wizerunkowej klapy i żenujących pikiet z garstką entuzjastów pod transparentami.

Organizatorzy obiecują, że po osiągnięciu celu dadzą wszystkim co najmniej miesiąc wyprzedzenia, chyba że wydarzy się coś nagłego w świecie AI. Możesz też po prostu zapisać się na listę powiadomień – obecnie 1311 osób wybrało tę bezpieczną opcję, czekając na rozwój wypadków. Raemon, autor wpisu na LessWrong, który zaprojektował witrynę, namawia każdego, kogo przekonały argumenty z książki „If Anyone Builds It, Everyone Dies”, by poświęcił te 30 sekund na wpisanie adresu e-mail.

Ironia losu polega na tym, że ten specyficzny „kickstarter” jest wyjątkowo tani w utrzymaniu, bo nie generuje kosztów początkowych. Pytanie tylko, czy 740 deklaracji po kilku godzinach od publikacji posta to dobry prognostyk? Raemon celuje w minimum 1000 zgłoszeń, by uruchomić efekt kuli śnieżnej i przyciągnąć szersze masy.

Dlaczego superinteligencja to wyrok śmierci według organizatorów?

Główny postulat planowanego marszu jest uderzająco prosty: potrzebujemy międzynarodowego traktatu, który zakaże rozwoju sztucznej superinteligencji – czyli maszyn znacznie sprytniejszych od jakiegokolwiek człowieka. Organizatorzy nie bawią się w subtelności i nie stosują hiperboli: wprost twierdzą, że jeśli jakakolwiek firma lub grupa badawcza zbuduje ASI przy użyciu obecnych technik i dzisiejszej wiedzy, wszyscy na Ziemi po prostu zginą. Bez żartów i bez zbędnej przesady – to ich bezpośrednia ekstrapolacja oparta na faktach, dowodach i dotychczasowym zachowaniu gigantów branży AI.

Firmy technologiczne pędzą w szaleńczym wyścigu o ASI, kompletnie nie mając pojęcia, co właściwie robią. Teoria sugeruje, że to fatalny pomysł, a praktyka tylko mnoży kolejne ostrzeżenia. Wszystkie te argumenty są szczegółowo rozwinięte w książce Eliezera Yudkowskiego i Nate’a Soarese’a z MIRI (Instytutu Badań nad Maszynową Inteligencją) oraz w dostępnych materiałach online. Ich zdaniem lokalny zakaz w jednym kraju nic nie da; rozwój po prostu przeniesie się w inne miejsce, aż w końcu ktoś nieodpowiedzialny odpali cyfrową bombę.

Aktywiści przypominają przy tym o historycznych precedensach: ludzkość potrafiła zrezygnować z budowy supergigantycznych głowic nuklearnych czy najgroźniejszych rodzajów broni biologicznej. Da się więc zatrzymać ten wyścig zbrojeń – kluczowe pytanie brzmi, czy tym razem politycy zechcą posłuchać głosu płynącego z ulicy.

Kontekst: książka MIRI i rola społeczności badaczy bezpieczeństwa

Cała akcja wyrasta bezpośrednio z publikacji „If Anyone Builds It, Everyone Dies” autorstwa Yudkowskiego i Soarese’a, którzy są kluczowymi postaciami w MIRI. To zwięzły manifest alarmujący przed zagrożeniami ze strony ASI, który doczekał się już licznych recenzji na Substacku Zvi Mowshowitza oraz na forach związanych z efektywnym altruizmem. Strona marszu jest ściśle powiązana z tą publikacją – hasła i design są celowo uproszczone, aby skłonić czytelników książki do szybkiej decyzji na „tak”.

Raemon podkreśla, że choć MIRI może w przyszłości mocno zaangażować się w promocję marszu, na razie jest to inicjatywa oddolna (grassroots). Rozważano różne alternatywy, jak choćby akcję „Zbuduj wyłącznik”, która skupiała się na infrastrukturze pozwalającej zatrzymać AGI w przyszłości. Obecna wersja to projekt typu „duży namiot”, który ma przyciągnąć jak najwięcej osób, choć wciąż wymaga dopracowania sloganów, by trafić do masowego odbiorcy.

Społeczność skupiona wokół LessWrong i EA (Effective Altruism) żywo dyskutuje: wielki marsz mógłby pokazać, że obawy o wyginięcie ludzkości z powodu AI to nie jest żaden margines, ale temat wchodzący do głównego nurtu. 100 tysięcy ludzi w Waszyngtonie to jasny sygnał dla polityków – nie masz do czynienia z samotnym wariatem, ale z potężną masą wyborców.

Aktualny stan, wyzwania i reakcje komentatorów

Na dzień 3 lutego 2026 roku licznik deklaracji udziału w marszu pokazuje 740 osób – to wzrost o zaledwie jedną osobę od wczorajszego wpisu Raemona. Do upragnionych 100 tysięcy droga jest jeszcze daleka, choć liczba zapisów na powiadomienia bije rekordy. W sekcji komentarzy na LessWrong nastroje są mieszane: Leo Gao narzeka, że zobowiązanie się do udziału w wydarzeniu w realnym świecie (IRL) z nieznanym terminem to czysta loteria – nawet przy 30-dniowym wyprzedzeniu tylko połowa terminów mu pasuje.

Raemon ripostuje: dla niego udział w tym proteście ma absolutny priorytet nad innymi planami, ale rozumie sceptycyzm innych. Sugeruje opcję „powiadom mnie” jako bezpieczne rozwiązanie i przyznaje, że pełne zobowiązanie (commitment) dla środowiska racjonalistów bywa wyzwaniem. Tymczasem na Manifold Markets trwają już zakłady o to, czy licznik dobije do 100 tysięcy i czy marsz faktycznie ruszy przed końcem 2026 roku.

Główne wyzwanie? Małe protesty zazwyczaj nic nie dają, a konieczność twardej deklaracji często odstrasza ludzi. Jeśli jednak liczba chętnych przebije barierę 1000 osób, może zadziałać mechanizm społecznego dowodu słuszności. Organizatorzy dają sobie miesiące, a nawet lata – wierzą, że im więcej osób przeczyta książkę MIRI, tym szybciej licznik zacznie wirować.

Czy to powtórzy sukces innych akcji na rzecz bezpieczeństwa AI?

Widać tu wyraźne echa innych głośnych protestów, takich jak głodówka pod siedzibą DeepMind, gdzie aktywiści byli gotowi na wielkie poświęcenia, byle tylko spowolnić wyścig zbrojeń. Tutaj stawka jest jednak znacznie wyższa: celem nie jest lokalny biurowiec, lecz globalny traktat. MIRI od lat bije na alarm, a nawet Sam Altman z OpenAI zaczął szukać szefa ds. bezpieczeństwa, oferując 555 tysięcy dolarów rocznie za pilnowanie, by technologia nie wymknęła się spod kontroli.

Krytycy tradycyjnie pytają: „a co, jeśli my przestaniemy, a Chiny nie?”. Organizatorzy odpowiadają krótko – właśnie dlatego potrzebny jest międzynarodowy pakt, wzorowany na tych dotyczących broni jądrowej. To swoista ironia: podczas gdy firmy AI pompują miliardy dolarów w rozwój modeli, garstka blogerów próbuje zebrać maile, by stworzyć dla nich realną przeciwwagę.

Czy ten marsz w ogóle ruszy? Przejście z 740 do 100 tysięcy deklaracji to prawdziwy skok kwantowy, ale w erze wiralowych zasięgów wszystko jest możliwe. Warto śledzić ten licznik, bo jeśli dojdzie do skutku, Waszyngton zapamięta ten dzień na długo.

Źródła: LessWrong (post Raemona: https://www.lesswrong.com/posts/HnwDWxRPzRrBfJSBD), ifanyonebuildsit.com/march, recenzje książki na TheZvi.substack.com i EA Forum.

Najczęściej zadawane pytania