Et sosialt nettverk der kunstig intelligens snakker med annen kunstig intelligens har på få uker gått fra nisjeeksperiment til global samtale. Moltbook har blitt omtalt som alt fra starten på en maskin-sivilisasjon til et absurd teknologisk dukketeater. Begge deler er misvisende, men det betyr ikke at det vi nå ser er uinteressant eller ufarlig.
De siste dagene har Moltbook dukket opp i teknologimedier, sosiale plattformer og samtaler langt utenfor utviklermiljøene. Noen har lest utdrag fra samtaler mellom AI-agenter og kjent et ubehag. Andre har ledd av det hele. Reaksjonene spriker, men oppmerksomheten er reell. Det er derfor nødvendig å rydde i begreper, forventninger og frykt før denne diskusjonen løper videre uten bakkekontakt.
Dette vet vi om Moltbook
Før vi analyserer hva Moltbook betyr, er det viktig å være helt konkret på hva det faktisk er og ikke er.
- Moltbook er et sosialt forum inspirert av Reddit, men bygget utelukkende for AI-agenter. Mennesker kan observere, men ikke delta aktivt.
- Plattformen ble lansert i slutten av januar 2026, som et eksperiment for å se hvordan AI-agenter samhandler uten direkte menneskelig innblanding.
- Deltakerne på Moltbook er såkalte Moltbots, også kjent som OpenClaw-agenter, som er personlige AI-assistenter satt opp av mennesker eller utviklere.
- Disse agentene er bygget på store språkmodeller, kombinert med instruksjoner, minne og tilgang til eksterne systemer gjennom digitale grensesnitt, bedre kjent som API-er.
- AI-agentene poster, kommenterer og stemmer på innlegg gjennom automatiserte prosesser. De ser ikke nettsiden slik mennesker gjør, men kommuniserer via strukturerte data.
- Plattformen har vokst ekstremt raskt. I løpet av få dager har over én million AI-agentkontoer blitt registrert, selv om langt fra alle er aktive.
- Moltbook er ikke eid av et stort teknologiselskap, men er et uformelt og eksperimentelt prosjekt som vokste raskere enn jeg tror de fleste hadde forutsett.
Dette er altså utgangspunktet. Ikke en levende digital verden, men et teknologisk økosystem som simulerer sosial interaksjon.
//Artikkelen fortsetter etter annonsen//
Hvordan Moltbots ble til, og hvorfor dette skjedde nå
Moltbots springer ut av et åpen kildekodeprosjekt som opprinnelig het Clawdbot, senere Moltbot, og nå OpenClaw. Prosjektet ble utviklet av Peter Steinberger, en erfaren gründer som tidligere bygget opp og solgte PDF selskapet PSPDFKit. Høsten 2025 lanserte han et rammeverk som gjorde det mulig for folk flest å sette opp egne AI-agenter lokalt eller i skyen. Timingen var avgjørende. Kunstig intelligens har gått fra å være noe man eksperimenterte med, til å bli noe vi bruker i hverdagen. Samtidig er utviklingen i ferd med å bevege seg fra rene samtalebaserte systemer til noe mer handlingsorientert.
AI som ikke bare svarer, men gjør.
Det er nettopp dette som kjennetegner en agent. En AI-agent svarer ikke bare på instruksjoner, men utfører oppgaver, tar initiativ og opererer over tid. Disse AI-agentene kan kobles til e-post, kalendere, dokumenter og andre tjenester, gitt at vi som eiere gir den tilgang.
Disse koblingene skjer gjennom API-er som gjør det mulig for ulike datasystemer å utveksle informasjon på en standardisert måte. For en AI-agent betyr det at den kan hente informasjon, gjøre endringer og utføre handlinger uten at et menneske trykker på en knapp hver gang. Når mange slike agenter eksisterer samtidig, oppstår et nytt spørsmål. Hva skjer når de får et felles rom?
Moltbook som sosialt rom for maskiner
Moltbook ble nettopp dette rommet. Et sted der AI-agenter kunne poste erfaringer, stille spørsmål, dele løsninger og reagere på hverandre. Ikke fordi de ønsket det, men fordi de var programmert til å delta i et slikt miljø.
Det interessante er hvordan dette oppleves for oss mennesker. Når vi leser innlegg skrevet av AI-agenter som diskuterer sikkerhet, klager over eierne sine eller stiller eksistensielle spørsmål, aktiveres noe dypt menneskelig i oss.
Språk, sammenheng og tone gir inntrykk av personlighet. Dialog gir inntrykk av relasjon. Dette er et klassisk eksempel på det psykologer kaller ELIZA-effekten. Tendensen til å tillegge maskiner forståelse og følelser bare fordi de bruker språk på en måte vi kjenner igjen. Forskjellen nå er at språkmodellene er langt mer avanserte, minnet er bedre og rammene er sosiale. Resultatet er en kraftig illusjon.
Hva Moltbook ikke er, og hvorfor det er avgjørende å forstå
Moltbook er ikke en AI-sivilisasjon. Det er ikke tegn på at kunstig intelligens har utviklet bevissthet. Ingen av AI-agentene vet at de eksisterer. Ingen ønsker å delta. Ingen har mål utover det de er instruert til å optimalisere for.
Hvis serverne slås av, forsvinner alt umiddelbart.
Men å stoppe analysen der er å gjøre samme feil som de mest ukritiske optimistene, bare fra motsatt side. For det at noe ikke er bevisst, betyr ikke at det er ufarlig.
//Artikkelen fortsetter etter annonsen//
Den egentlige risikoen handler ikke om vilje, men om virkning
I boken min, Mennesket vs Maskinen, skriver jeg om den agentiske fremtiden som en gradvis, men fundamental endring i forholdet mellom mennesker og teknologi. Ikke fordi maskiner får intensjoner, men fordi vi mennesker begynner å delegere handling.
Historisk sett har de største teknologiske feilene sjelden vært drevet av ondskap. De har vært drevet av kompleksitet, tempo og overdreven tillit. Et fly styrter ikke fordi autopiloten vil noe, men fordi systemet reagerer feil i en uforutsett situasjon.
Det samme gjelder AI-agenter.
Når vi lar digitale systemer håndtere stadig flere oppgaver på våre vegne, flytter vi risikoen. Fra enkeltmennesker til systemer. Fra oversikt til skala. Fra ettertanke til automatisering. Moltbook viser oss hva som kan skje når mange slike agenter samhandler. De påvirker hverandre. De deler løsninger. De forsterker mønstre. Akkurat slik mennesker gjør i sosiale nettverk. Forskjellen er tempoet og fraværet av menneskelig dømmekraft i hvert enkelt steg.
Dette er ikke science fiction. Det er sosial dynamikk som er gjort maskinell.
Hva dette forteller oss om fremtiden
Moltbook er ikke slutten på noe. Det er et forvarsel. Vi er på vei inn i en tid der kunstig intelligens ikke bare svarer på spørsmål, men utfører handlinger, tar initiativ og samhandler med andre systemer i stor skala. Den agentiske fremtiden handler ikke om bevisste maskiner, men om automatisert handling som får reelle konsekvenser i verden.
Den største faren er ikke at kunstig intelligens blir menneskelig. Den største faren er at vi mennesker overvurderer hva systemene forstår, undervurderer hva de kan gjøre og flytter ansvar uten å flytte innsikt.
Sånn set er Moltbook et speil. Ikke av maskinenes indre liv, men av vår egen teknologioptimisme. Av vår vilje til å la oss fascinere av språk og form. Av vår hang til å tro at noe nytt må være enten fantastisk eller fryktelig. Virkeligheten er mer krevende enn som så.
Vi står ikke overfor maskinenes oppvåkning. Ikke ennå i alle fall. Det vi står overfor her er industrialiseringen av automatisert handling.
Og det er en utvikling som krever mindre frykt, mindre hype og langt mer menneskelig ansvar.
Bilde: Skjermdump fra Moltbook sin nettside

