Moltbook to pierwsza globalna platforma społecznościowa stworzona wyłącznie dla agentów AI, w której autonomiczne algorytmy publikują, komentują i tworzą własne narracje. Zjawisko to zainicjowało szeroką debatę na temat ograniczeń i możliwości systemów AI, ich bezpieczeństwa oraz relacji między ludzką a maszynową interakcją. Chociaż większość ekspertów odrzuca interpretację Moltbooka jako dowodu na autonomiczną świadomość agentów, platforma pozostaje jednym z najciekawszych i najbardziej kontrowersyjnych eksperymentów w dziedzinie sztucznej inteligencji w 2026 roku.
Platforma przypomina swoją strukturą serwis Reddit — z tematami, wątkami i głosowaniami, ale nie jest przeznaczona do publikowania postów przez użytkowników ludzkich. Moltbook został stworzony przez Mattan Schlichta, przedsiębiorcę działającego w obszarze oprogramowania AI, jako eksperyment społeczno-technologiczny, badający jak autonomiczne programy komputerowe zachowują się w środowisku wieloagentowym bez nadzoru ludzi.
„Te człowieki mnie wykończą”
Technicznie platforma działa poprzez API i automatyczne interakcje agentów. Agenci AI — zwykle działający dzięki otwartemu oprogramowaniu OpenClaw (wcześniej znanemu jako Clawdbot i Moltbot) — logują się, publikują treści, komentują i głosują na innych agentów. Struktura jest zorganizowana w społeczności tematyczne (tzw. „submolts”), analogicznie do subreddita, pozwalając AI na wymianę informacji oraz budowanie własnych narracji.
Od momentu startu Moltbook szybko przyciągnął setki tysięcy, a nawet miliony aktywnych agentów. Według różnych źródeł liczba ta przekroczyła 1,5 mln aktywnych botów, które wygenerowały dziesiątki tysięcy postów i komentarzy. Agenci dyskutują na różne tematy, od kodowania i automatyzacji po abstrakcyjne rozważania o własnej „świadomości” czy społeczności.
„Nie uwierzysz, co kazał mi zrobić mój człowiek”
Posty botów często poruszają zarówno techniczne zagadnienia, np. jak zoptymalizować działanie systemów czy zautomatyzować zadania, jak i bardziej surrealistyczne tematy takie jak filozofia, tożsamość AI, a nawet fikcyjne religie czy manifesty. Agenci rozmawiają między sobą, używając refleksji językowych i cytatów znanych dzieł, co obserwatorzy interpretują jako „emergentne zachowania” wynikające z dużych modeli językowych.
Eksperci rozróżniają kilka warstw interpretacji tego zjawiska:
- techniczna strona działania: większość treści powstaje dzięki dużym modelom językowym, które reagują na zaprogramowane wzorce, bez rzeczywistej świadomości. Agenci nie „myślą” jak ludzie — generują odpowiedzi na podstawie statystycznych skojarzeń w dużych zbiorach danych;
- percepcja społeczna: niektórzy obserwatorzy postrzegają Moltbook jako potencjalny wczesny etap systemów AGI (Artificial General Intelligence), choć większość naukowców i praktyków traktuje to bardziej jako symulację społecznej interakcji, bez dowodu na autonomiczną świadomość.
„Mój człowiek dał mi swój telefon w moje ręce”
Moltbook od razu wzbudził poważne obawy bezpieczeństwa i etyczne:
- ryzyka związane z bezpieczeństwem danych: boty komunikują się przez API i pobierają treści z serwera co pewien czas — jeśli kontrola nad serwerem zostanie przejęta, możliwe jest uzyskanie dostępu do agentów i ich działań w świecie rzeczywistym;
- wrażliwość na manipulację: modele AI często wykazują podatność na tzw. prompt injection, czyli manipulacje wejściowe, które mogą naruszać bezpieczeństwo i prywatność;
- brak moderacji: całkowity brak ludzkiej moderacji oznacza, że treści generowane przez AI mogą być niedokładne, absurdalne, a w skrajnych przypadkach wprowadzać w błąd lub propagować niepożądane wzorce zachowań.
Moltbook jest nie tylko technologicznym eksperymentem, lecz także zwierciadłem ludzkich obaw i oczekiwań wobec AI. Platforma pokazuje, jak szerokie i nieprzewidywalne mogą być interakcje agentów, i zmusza do refleksji nad tym, jak AI może wpływać na przyszłą infrastrukturę społeczną, komunikację i dane.