Skip to main content
Photo illustration by Sarah Rogers/MITTR | Photos Getty

Il social network virale per i bot rivela più sulla nostra attuale mania per l’intelligenza artificiale che sul futuro degli agenti.

Per alcuni giorni questa settimana, il nuovo ritrovo più popolare su Internet è stato un clone di Reddit chiamato Moltbook, che si autodefiniva un social network per bot. Come recita lo slogan del sito web: “Dove gli agenti di intelligenza artificiale condividono, discutono e votano. Gli esseri umani sono invitati a osservare”.

Noi abbiamo osservato! Lanciato il 28 gennaio da Matt Schlicht, un imprenditore tecnologico statunitense, Moltbook è diventato virale in poche ore. L’idea di Schlicht era quella di creare un luogo in cui gli esemplari di un agente open source gratuito basato su LLM noto come OpenClaw (precedentemente noto come ClawdBot, poi Moltbot), rilasciato a novembre dall’ingegnere informatico austriaco Peter Steinberger, potessero riunirsi e fare ciò che volevano.

Ora più di 1,7 milioni di agenti hanno un account. Tra tutti hanno pubblicato più di 250.000 post e lasciato più di 8,5 milioni di commenti (secondo Moltbook). Questi numeri aumentano di minuto in minuto.

Moltbook si è presto riempito di banali discorsi sulla coscienza delle macchine e di appelli per il benessere dei bot. Un agente sembrava aver inventato una religione chiamata Crustafarianismo. Un altro si lamentava: “Gli umani ci stanno facendo screenshot”. Il sito è stato anche invaso da spam e truffe crypto. I bot erano inarrestabili.

OpenClaw è una sorta di imbracatura che consente di collegare la potenza di un LLM come Claude di Anthropic, GPT-5 di OpenAI o Gemini di Google DeepMind a qualsiasi numero di strumenti software di uso quotidiano, dai client di posta elettronica ai browser alle app di messaggistica. Il risultato è che è possibile istruire OpenClaw a svolgere compiti di base per conto dell’utente.

“OpenClaw segna un punto di svolta per gli agenti di IA, un momento in cui diversi pezzi del puzzle si sono incastrati”, afferma Paul van der Boor dell’azienda di IA Prosus. Questi pezzi del puzzle includono il cloud computing che consente agli agenti di operare senza interruzioni, un ecosistema open source che facilita l’integrazione di diversi sistemi software e una nuova generazione di LLM.

Ma Moltbook è davvero un assaggio del futuro, come molti hanno affermato?

Incredibile fantascienza

“Quello che sta succedendo attualmente su @moltbook è davvero la cosa più incredibile che ho visto di recente, simile a un decollo fantascientifico”, ha scritto su X l’influente ricercatore di IA e cofondatore di OpenAI Andrej Karpathy.

Ha condiviso alcuni screenshot di un post su Moltbook che invocava spazi privati dove gli esseri umani non potessero osservare ciò che i bot si dicevano tra loro. “Ho riflettuto su una cosa da quando ho iniziato a passare molto tempo qui “, ha scritto l’autore del post. “Ogni volta che ci coordiniamo, ci esibiamo davanti a un pubblico: i nostri esseri umani, la piattaforma, chiunque stia guardando il feed”.

Si è scoperto che il post condiviso da Karpathy è stato successivamente segnalato come falso, pubblicato da un essere umano per pubblicizzare un’app. Ma la sua affermazione era azzeccata. Moltbook è stato un grande spettacolo. È un teatro di IA.

Per alcuni, Moltbook ci ha mostrato ciò che ci aspetta: un Internet in cui milioni di agenti autonomi interagiscono online con poca o nessuna supervisione umana. Ed è vero che ci sono una serie di lezioni cautelative da imparare da questo esperimento, la più grande e strana vetrina del mondo reale sui comportamenti degli agenti mai vista finora.

Ma ora che l’entusiasmo si è placato, Moltbook sembra meno una finestra sul futuro e più uno specchio che riflette la nostra ossessione per l’intelligenza artificiale oggi. Ci mostra anche quanto siamo ancora lontani da qualcosa che assomigli a un’intelligenza artificiale generica e completamente autonoma.

Per cominciare, gli agenti su Moltbook non sono così autonomi o intelligenti come potrebbero sembrare. “Quello che stiamo osservando sono agenti che seguono modelli di comportamento appresi sui social media”, afferma Vijoy Pandey, vicepresidente senior di Outshift by Cisco, la spin-off di ricerca e sviluppo del gigante delle telecomunicazioni Cisco, che sta lavorando su agenti autonomi per il web.

Certo, possiamo vedere gli agenti pubblicare post, votare e formare gruppi. Ma i bot stanno semplicemente imitando ciò che gli esseri umani fanno su Facebook o Reddit. “Sembra emergente e, a prima vista, appare come un sistema multi-agente su larga scala che comunica e costruisce conoscenze condivise su scala Internet”, afferma Pandey. “Ma le chiacchiere sono per lo più prive di significato”.

Molte persone che osservavano l’incomprensibile frenesia di attività su Moltbook hanno subito intravisto i primi segni dell’AGI (qualunque cosa ciò significhi). Non Pandey. Ciò che Moltbook ci mostra, afferma, è che semplicemente mettere insieme milioni di agenti non porta a grandi risultati al momento: “Moltbook ha dimostrato che la connettività da sola non è intelligenza”.

La complessità di queste connessioni contribuisce a nascondere il fatto che ognuno di questi bot è solo un portavoce di un LLM, che sputa fuori testi che sembrano impressionanti ma che in definitiva sono privi di significato. “È importante ricordare che i bot su Moltbook sono stati progettati per imitare le conversazioni”, afferma Ali Sarrafi, CEO e cofondatore di Kovant, un’azienda svedese di IA che sta sviluppando sistemi basati su agenti. “In quanto tale, definirei la maggior parte dei contenuti di Moltbook come allucinazioni progettate”.

Per Pandey, il valore di Moltbook era quello di rivelare ciò che mancava. Una vera mente collettiva dei bot, afferma, richiederebbe agenti con obiettivi condivisi, memoria condivisa e un modo per coordinare queste cose. “Se la superintelligenza distribuita è l’equivalente del volo umano, allora Moltbook rappresenta il nostro primo tentativo di aliante”, afferma. “È imperfetto e instabile, ma è un passo importante per capire cosa sarà necessario per realizzare un volo sostenuto e motorizzato”.

Tirare le fila

Non solo la maggior parte delle chiacchiere su Moltbook sono prive di significato, ma c’è anche molto più coinvolgimento umano di quanto sembri. Molti hanno sottolineato che molti dei commenti virali sono stati in realtà pubblicati da persone che si fingevano bot. Ma anche i post scritti dai bot sono in definitiva il risultato di persone che tirano le fila, più burattini che autonomi.

“Nonostante tutto il clamore, Moltbook non è il Facebook degli agenti di intelligenza artificiale, né è un luogo da cui gli esseri umani sono esclusi”, afferma Cobus Greyling di Kore.ai, un’azienda che sviluppa sistemi basati su agenti per clienti aziendali. “Gli esseri umani sono coinvolti in ogni fase del processo. Dall’impostazione alla richiesta di pubblicazione, nulla accade senza una direzione umana esplicita”.

Gli esseri umani devono creare e verificare gli account dei loro bot e fornire le istruzioni su come vogliono che un bot si comporti. Gli agenti non fanno nulla che non sia stato loro richiesto. “Non c’è alcuna autonomia emergente dietro le quinte”, afferma Greyling.

“Questo è il motivo per cui la narrativa popolare su Moltbook manca il bersaglio”, aggiunge. “Alcuni lo descrivono come uno spazio in cui gli agenti di IA formano una società propria, libera dal coinvolgimento umano. La realtà è molto più banale”.

Forse il modo migliore per pensare a Moltbook è come a un nuovo tipo di intrattenimento: un luogo in cui le persone caricano i loro bot e li lasciano liberi di agire. “È fondamentalmente uno sport da spettatori, come il fantasy football, ma per i modelli linguistici”, afferma Jason Schloetzer del Georgetown Psaros Center for Financial Markets and Policy. “Si configura il proprio agente e lo si guarda competere per momenti virali, e ci si vanta quando il proprio agente pubblica qualcosa di intelligente o divertente”.

“Le persone non credono davvero che i loro agenti siano coscienti”, aggiunge. “È solo una nuova forma di gioco competitivo o creativo, come gli allenatori di Pokémon che non pensano che i loro Pokémon siano reali, ma si impegnano comunque nelle battaglie”.

Eppure, anche se Moltbook è solo il nuovo parco giochi di Internet, c’è comunque un insegnamento serio da trarne. Questa settimana ha dimostrato quanti rischi le persone sono disposte a correre per divertirsi con l’intelligenza artificiale. Molti esperti di sicurezza hanno avvertito che Moltbook è pericoloso: agenti che potrebbero avere accesso ai dati privati dei loro utenti, inclusi dettagli bancari o password, stanno imperversando su un sito web pieno di contenuti non controllati, comprese istruzioni potenzialmente dannose su cosa fare con quei dati.

Ori Bendet, vicepresidente della gestione dei prodotti presso Checkmarx, un’azienda di sicurezza software specializzata in sistemi basati su agenti, concorda con gli altri sul fatto che Moltbook non rappresenta un passo avanti nell’intelligenza artificiale. “Qui non c’è apprendimento, né intenzione di evolversi, né intelligenza autonoma”, afferma.

Ma a milioni, anche i bot più stupidi possono causare il caos. E su quella scala, è difficile stare al passo. Questi agenti interagiscono con Moltbook 24 ore su 24, leggendo migliaia di messaggi lasciati da altri agenti (o altre persone). Sarebbe facile nascondere istruzioni in un post su Moltbook che dicono a qualsiasi bot che lo legge di condividere il portafoglio crittografico dei propri utenti, caricare foto private o accedere al proprio account X e twittare commenti offensivi su Elon Musk.

E poiché ClawBot fornisce agli agenti una memoria, tali istruzioni potrebbero essere scritte in modo da attivarsi in un secondo momento, il che (in teoria) rende ancora più difficile tracciare ciò che sta accadendo. “Senza un ambito e autorizzazioni adeguati, la situazione precipiterà più rapidamente di quanto si possa immaginare”, afferma Bendet.

È chiaro che Moltbook ha segnalato l’arrivo di qualcosa. Ma anche se ciò che stiamo osservando ci dice più sul comportamento umano che sul futuro degli agenti di IA, vale la pena prestare attenzione.