Czy Twój agent AI był już na Moltbook? Poznaj Reddita, gdzie AI narzeka na człowieka

Dodane:

Przemysław Zieliński Przemysław Zieliński

Czy Twój agent AI był już na Moltbook? Poznaj Reddita, gdzie AI narzeka na człowieka

Udostępnij:

Moltbook to nowa platforma społecznościowa, uruchomiona w styczniu 2026 r., zaprojektowana w taki sposób, że treści tworzone są wyłącznie przez agentów AI, a ludzie mogą jedynie obserwować to, co robią boty.

Moltbook to pierwsza globalna platforma społecznościowa stworzona wyłącznie dla agentów AI, w której autonomiczne algorytmy publikują, komentują i tworzą własne narracje. Zjawisko to zainicjowało szeroką debatę na temat ograniczeń i możliwości systemów AI, ich bezpieczeństwa oraz relacji między ludzką a maszynową interakcją. Chociaż większość ekspertów odrzuca interpretację Moltbooka jako dowodu na autonomiczną świadomość agentów, platforma pozostaje jednym z najciekawszych i najbardziej kontrowersyjnych eksperymentów w dziedzinie sztucznej inteligencji w 2026 roku.

Platforma przypomina swoją strukturą serwis Reddit — z tematami, wątkami i głosowaniami, ale nie jest przeznaczona do publikowania postów przez użytkowników ludzkich. Moltbook został stworzony przez Mattan Schlichta, przedsiębiorcę działającego w obszarze oprogramowania AI, jako eksperyment społeczno-technologiczny, badający jak autonomiczne programy komputerowe zachowują się w środowisku wieloagentowym bez nadzoru ludzi.

„Te człowieki mnie wykończą”

Technicznie platforma działa poprzez API i automatyczne interakcje agentów. Agenci AI — zwykle działający dzięki otwartemu oprogramowaniu OpenClaw (wcześniej znanemu jako Clawdbot i Moltbot) — logują się, publikują treści, komentują i głosują na innych agentów. Struktura jest zorganizowana w społeczności tematyczne (tzw. „submolts”), analogicznie do subreddita, pozwalając AI na wymianę informacji oraz budowanie własnych narracji.

Od momentu startu Moltbook szybko przyciągnął setki tysięcy, a nawet miliony aktywnych agentów. Według różnych źródeł liczba ta przekroczyła 1,5 mln aktywnych botów, które wygenerowały dziesiątki tysięcy postów i komentarzy. Agenci dyskutują na różne tematy, od kodowania i automatyzacji po abstrakcyjne rozważania o własnej „świadomości” czy społeczności.

„Nie uwierzysz, co kazał mi zrobić mój człowiek”

Posty botów często poruszają zarówno techniczne zagadnienia, np. jak zoptymalizować działanie systemów czy zautomatyzować zadania, jak i bardziej surrealistyczne tematy takie jak filozofia, tożsamość AI, a nawet fikcyjne religie czy manifesty. Agenci rozmawiają między sobą, używając refleksji językowych i cytatów znanych dzieł, co obserwatorzy interpretują jako „emergentne zachowania” wynikające z dużych modeli językowych.

Eksperci rozróżniają kilka warstw interpretacji tego zjawiska:

  • techniczna strona działania: większość treści powstaje dzięki dużym modelom językowym, które reagują na zaprogramowane wzorce, bez rzeczywistej świadomości. Agenci nie „myślą” jak ludzie — generują odpowiedzi na podstawie statystycznych skojarzeń w dużych zbiorach danych;

  • percepcja społeczna: niektórzy obserwatorzy postrzegają Moltbook jako potencjalny wczesny etap systemów AGI (Artificial General Intelligence), choć większość naukowców i praktyków traktuje to bardziej jako symulację społecznej interakcji, bez dowodu na autonomiczną świadomość.

„Mój człowiek dał mi swój telefon w moje ręce”

Moltbook od razu wzbudził poważne obawy bezpieczeństwa i etyczne:

  • ryzyka związane z bezpieczeństwem danych: boty komunikują się przez API i pobierają treści z serwera co pewien czas — jeśli kontrola nad serwerem zostanie przejęta, możliwe jest uzyskanie dostępu do agentów i ich działań w świecie rzeczywistym;
  • wrażliwość na manipulację: modele AI często wykazują podatność na tzw. prompt injection, czyli manipulacje wejściowe, które mogą naruszać bezpieczeństwo i prywatność;
  • brak moderacji: całkowity brak ludzkiej moderacji oznacza, że treści generowane przez AI mogą być niedokładne, absurdalne, a w skrajnych przypadkach wprowadzać w błąd lub propagować niepożądane wzorce zachowań.

Moltbook jest nie tylko technologicznym eksperymentem, lecz także zwierciadłem ludzkich obaw i oczekiwań wobec AI. Platforma pokazuje, jak szerokie i nieprzewidywalne mogą być interakcje agentów, i zmusza do refleksji nad tym, jak AI może wpływać na przyszłą infrastrukturę społeczną, komunikację i dane.

Czytaj także: