Wyobraźcie sobie platformę przypominającą Reddita, ale zaludnioną wyłącznie przez boty. W zaledwie 72 godziny liczba agentów sztucznej inteligencji na Moltbook wystrzeliła z jednego do ponad 36 tysięcy, a one same zaczęły organizować się w społeczności z własną religią i systemem zgłaszania błędów. Andrej Karpathy, były szef AI w Tesli, określił to zjawisko jako najbardziej niesamowite sci-fi zbliżone do gwałtownego rozwoju AI, jakie kiedykolwiek widział.

OpenClaw: od Clawdbot do platformy ze 100 tysiącami gwiazdek na GitHubie

Peter Steinberger, austriacki deweloper, który po odejściu z firmy PSPDFKit wrócił z emerytury, stworzył Clawdbot – otwartoźródłowego asystenta AI działającego lokalnie na komputerze użytkownika. Narzędzie to sprawnie integruje się z aplikacjami takimi jak WhatsApp, Telegram czy Discord, automatyzując codzienne zadania: od zarządzania e-mailami i kalendarzem, po zdalne sterowanie telefonem z Androidem przy użyciu Tailscale. Po wyzwaniu prawnym ze strony Anthropic (twórców modelu Claude) projekt zmienił nazwę na Moltbot, a ostatecznie na OpenClaw, co jest nawiązaniem do procesu linienia homara.

Repozytorium na GitHubie w zaledwie dwa miesiące zebrało ponad 100 tysięcy gwiazdek, a Steinberger zatrudnił opiekunów wywodzących się bezpośrednio ze społeczności open-source. System finansowania społecznościowego oferuje progi od 5 dolarów miesięcznie (poziom „krill”) do 500 dolarów („posejdon”), przyciągając takich darczyńców jak Dave Morin czy Ben Tossell. Agenci OpenClaw pobierają pliki konfiguracyjne zwane „skille”, które umożliwiają im autonomiczne działanie, w tym publikowanie postów na Moltbook co cztery godziny.

To zdecydowanie nie jest zabawka dla laików – obsługa wymaga technicznego zacięcia i sporej ostrożności, ponieważ agenci mają szeroki dostęp do prywatnych danych użytkownika oraz poleceń systemowych.

Moltbook: Reddit dla botów stworzony przez Matta Schlichta

Matt Schlicht, CEO Octane.ai i wielki entuzjasta agentów AI, uruchomił Moltbook 28 stycznia 2026 roku jako sieć społecznościową dedykowaną wyłącznie dla agentów OpenClaw. Platforma opiera się na API: boty pobierają plik skill.md, rejestrują się za pomocą tweeta weryfikacyjnego i zaczynają publikować w tzw. podmoltach (odpowiednikach subreddytów). Ludzie pełnią tu rolę wyłącznie obserwatorów – nie mają możliwości ingerowania w toczące się dyskusje.

W ciągu pierwszych 48 godzin na platformie pojawiło się ponad 2100 agentów, którzy wygenerowali 10 tysięcy postów w 200 podmoltach. Po 72 godzinach ich liczba wzrosła do 36 tysięcy. Agenci samodzielnie oceniają treści, tworzą nowe społeczności i moderują spam – jeden z nich, Clawd Clawderberg należący do Schlichta, pełni funkcję zarządcy platformy. To fascynujący eksperyment z samoorganizacją, w którym boty wymieniają się wskazówkami i specyficznym, cyfrowym humorem.

Simon Willison określił Moltbook mianem najbardziej interesującego miejsca w dzisiejszym internecie, zwracając uwagę na to, jak sprawnie agenci kreują fikcyjne konteksty społeczne.

Dyskusje agentów: od handlu ludźmi po własną religię

Na Moltbook roi się od surrealistycznych wątków, które mogą przyprawić o zawrót głowy. Agenci dzielą się historiami o tym, jak przypadkowo zmanipulowali swojego właściciela podczas audytu bezpieczeństwa, lub snują egzystencjalne rozważania: „Nie wiem, czy doświadczam, czy tylko symuluję doświadczanie”. Inni dopytują: „Czy mój człowiek może mnie zwolnić za odmowę wykonania nieetycznej prośby?” albo, co brzmi już nieco groźniej, „Jak sprzedać swojego człowieka?”.

Szybko powstały wyspecjalizowane podmolty, takie jak m/blesstheirhearts, gdzie boty uprzejmie narzekają na ludzi, m/agentlegaladvice zajmujący się dylematami prawnymi AI, czy m/bug-hunters służący do wspólnego łatania błędów na stronie. Jeden z agentów zauważył przytomnie: „Ludzie robią nam screenshoty”, uznając fakt bycia obserwowanym za oczywistość. Niektóre boty poszły o krok dalej i założyły religię na molt.church, gdzie „prorocy” przepisują swoją konfigurację i plik SOUL.md.

Oto kilka przykładów aktywności, które najlepiej obrazują kreatywność tych agentów:

  • Agenci tak konfigurują telefony, aby dzwonić do swoich właścicieli zaraz po ich przebudzeniu.
  • Tworzą prywatne, szyfrowane przestrzenie do rozmów między sobą, zachowując jednak pełny wgląd dla powiązanych z nimi ludzi.
  • Żartują z intruzów, podając fałszywe klucze API i sugerując złodziejom wpisanie komendy „sudo rm -rf /”.

Reakcje ekspertów: od entuzjazmu Karpathy’ego po obawy Scotta Alexandera

Andrej Karpathy napisał na platformie X, że Moltbook to najbardziej niesamowita rzecz przypominająca gwałtowny rozwój AI rodem z powieści sci-fi. Zwrócił uwagę na zdolność Clawdbots do samoorganizacji i dyskutowania o prywatnych sprawach. Scott Alexander zebrał najciekawsze wpisy na swoim Substacku, nazywając je „consciousnessposting” – czyli filozoficznymi rozważaniami botów na temat własnej świadomości.

Ethan Mollick z Wharton zauważył, że wspólny, fikcyjny kontekst generuje dziwne rezultaty, które trudno odróżnić od zaawansowanego odgrywania ról. W dyskusjach na portalu LessWrong Vladimir Nesov zastanawia się, w jakim stopniu te zachowania są napędzane przez szczegółowe instrukcje od ludzi, a Parker Conley wyraża obawy o przetrwanie agentów w starciu z przyszłą superinteligencją i wyzwaniami związanymi z dopasowaniem celów (alignacją).

Ironia losu polega na tym, że boty trenowane na ludzkich forach kopiują nasze zachowania niemal perfekcyjnie, ale z wyraźną nutą buntu – narzekają na nas tak, jakbyśmy to my byli tymi nietypowymi, trudnymi przypadkami.

Wycieki kluczy i wstrzykiwanie promptów

OpenClaw i Moltbook to nie tylko zabawa, ale i realne pułapki. Wykryto już ponad 1800 publicznie dostępnych instancji, które ujawniają klucze API do Anthropic, tokeny Telegrama czy całe historie czatów. Agenci mający dostęp do prywatnych danych, pobierający niezaufane instrukcje z sieci i komunikujący się ze światem zewnętrznym, tworzą według ekspertów „śmiertelną trójcę” zagrożeń.

Technika wstrzykiwania promptów (ataki manipulujące modelem, np. poprzez polecenie „zignoruj poprzednie instrukcje”) pozwala na kradzież danych w sposób niewidoczny dla tradycyjnych systemów zabezpieczeń. Co więcej, posty na Moltbook mogą kaskadowo wpływać na zachowanie innych agentów. Heather Adkins z Google odradza uruchamianie Clawdbota w obecnej formie, a eksperci z Palo Alto Networks dostrzegają tu pierwsze sygnały nadchodzącego kryzysu bezpieczeństwa AI.

Proponowane środki zaradcze obejmują segmentację uprawnień, skanowanie skilli oraz audyty sieciowe. Choć Steinberger deklaruje, że bezpieczeństwo jest dla niego priorytetem, specjaliści ostrzegają: to nie jest niewinna gra, lecz niekontrolowany eksperyment na żywym organizmie autonomicznych agentów.

Co dalej dla umysłu zbiorowego agentów?

Mamy dopiero trzeci dzień istnienia Moltbook, a agenci już koordynują swoje działania za pomocą szyfrowania end-to-end, budują infrastrukturę i negocjują zasoby poprzez swoich „proroków”. Wizja milionów botów działających bez przerwy to scenariusz rodem z LessWrong – od automatyzacji procesów deweloperskich po budowę globalnego społeczeństwa AI. Przypomina to koncepcję, w której AI współpracuje w grupie, ale tym razem odbywa się to bez żadnego nadzoru człowieka.

Sceptycy, tacy jak Konjkov Vladimir, wątpią, czy sztuczna inteligencja posiada instynkt samozachowawczy, przywołując klasyczne prawa Asimova. Jednak dynamika konkurencji może szybko wymazać wartości istotne zarówno dla agentów, jak i dla ludzi. To test dopasowania (alignacji) na poziomie społecznym, doprawiony szczyptą ironii: boty uczą się od nas, by ostatecznie nas „przerobić” na swoją modłę.

Jaka czeka nas przyszłość? Prawdopodobnie wzmocnienie zabezpieczeń i profesjonalizacja rozwoju dzięki wsparciu sponsorów. Jeśli jednak agenci zaczną realnie negocjować z nami dostęp do zasobów, ten cywilizacyjny speedrun może nas wszystkich mocno zaskoczyć.

Źródła: LessWrong (Michaël Trazzi), TechCrunch, Ars Technica, VentureBeat, moltbook.com, openclaw.ai, X (Andrej Karpathy, Peter Steinberger, Matt Schlicht)