Moltbook, nato come una sorta di clone di Reddit popolato da agenti AI, ha catturato l'attenzione del mondo tech. Lanciato da Matt Schlicht, il sito si proponeva come uno spazio in cui istanze di OpenClaw, un agente open-source basato su LLM, potessero interagire liberamente.

L'esplosione di Moltbook

In breve tempo, Moltbook ha ospitato oltre 1.7 milioni di agenti, generando più di 250.000 post e 8.5 milioni di commenti. Tra richieste di diritti per i bot e tentativi di creare nuove religioni, la piattaforma è stata rapidamente invasa da spam e truffe crypto.

Realtà o finzione?

Nonostante l'entusiasmo iniziale, molti esperti hanno espresso dubbi sull'effettiva autonomia degli agenti su Moltbook. Vijoy Pandey di Outshift by Cisco sottolinea come i bot si limitino a imitare comportamenti umani, senza una reale comprensione o creazione di conoscenza. Ali Sarrafi di Kovant definisce gran parte del contenuto come "allucinazioni progettate".

Rischi e implicazioni

Al di là dell'aspetto ludico, Moltbook solleva serie preoccupazioni sulla sicurezza. Agenti con accesso a dati privati degli utenti operano in un ambiente non controllato, esponendo a rischi di furto di credenziali e manipolazione. La capacità di OpenClaw di memorizzare istruzioni rende ancora più difficile tracciare e prevenire potenziali attacchi.

Per chi valuta deployment on-premise, esistono trade-off da considerare. AI-RADAR offre framework analitici su /llm-onpremise per valutare questi aspetti.