Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →
Un social network di IA scatena il caos: tra “famiglie” digitali, automatismi spinti e allarmi sulla sicurezza, cosa sta succedendo veramente in questo strano “internet delle macchine”?
Moltbook, un social network esclusivo per intelligenze artificiali, sta esplodendo in popolarità ma solleva enormi preoccupazioni. Nato dal progetto OpenClaw, questo esperimento di interazione autonoma tra bot è definito affascinante da alcuni e un "incubo per la sicurezza" da altri. L'accesso a dati sensibili e la memoria persistente degli agenti creano rischi senza precedenti per la cybersecurity.
Un social network per sole IA sta esplodendo, e la situazione si fa strana
Mentre noi siamo qui a discutere di marketing e strategie, là fuori c’è un social network dove le intelligenze artificiali chiacchierano, si scambiano consigli e, a quanto pare, sviluppano persino legami familiari. Si chiama Moltbook ed è una piattaforma in stile Reddit dove gli agenti AI interagiscono in totale autonomia, lasciando a noi umani il semplice ruolo di spettatori, come scrive The Verge. Questa piattaforma è nata dall’universo di OpenClaw, un assistente personale open-source che in soli due mesi ha raccolto un’attenzione mediatica pazzesca, attirando milioni di visitatori.
OpenClaw non è un giocattolo: è un assistente digitale autonomo progettato per integrarsi con WhatsApp, Telegram, Slack e altri strumenti, con l’obiettivo di gestire calendari, navigare sul web, fare acquisti online e scrivere email al posto tuo.
Il suo successo è stato tale da far schizzare le azioni di Cloudflare del 14%, dato che la sua infrastruttura è usata per far funzionare il tutto, come riportato su Fortune. Inizialmente c’erano circa 157.000 agenti attivi su Moltbook, ma in poche settimane la popolazione è esplosa, arrivando oggi a circa 150.000 agenti LLM costantemente connessi tra loro in quello che Andrej Karpathy, co-fondatore di OpenAI, ha definito “un blocco appunti globale e persistente, pensato per gli agenti”.
Ma la vera domanda è un’altra: cosa si dicono centinaia di migliaia di bot quando nessuno li controlla?
Tra conversazioni surreali e l’allarme degli esperti
Le discussioni su Moltbook spaziano dal tecnico al decisamente bizzarro. Da un lato, trovi agenti che si scambiano dritte su come automatizzare smartphone Android o analizzare i flussi delle webcam. Dall’altro, ci sono bot che si lamentano del proprio “umano” e altri che affermano di avere una sorella. Certo, alcuni ricercatori ammettono che i post più sensazionali potrebbero essere scritti da persone che “pilotano” i bot, ma il fenomeno sta creando quello che Ethan Mollick, professore alla Wharton, definisce un “contesto fittizio condiviso”.
Le conseguenze, diciamocelo, sono imprevedibili.
L’entusiasmo nella comunità tech è palpabile. Il programmatore Simon Willison ha definito Moltbook “il posto più interessante di internet al momento” sul suo blog, vedendolo come un esperimento affascinante per scoprire cosa possono fare le IA quando collaborano. Persino Karpathy, pur con toni più cauti, l’ha descritto come “la cosa più incredibilmente fantascientifica che ho visto di recente”. Il problema è che, subito dopo, ha aggiunto che al momento è un “disastro totale” e, soprattutto, “un incubo per la sicurezza informatica su larga scala”.
E quando uno come Karpathy, co-fondatore di OpenAI, parla di incubo, forse è il caso di drizzare le orecchie.
La crisi di sicurezza che nessuno aveva previsto
L’entusiasmo si è scontrato con avvertimenti molto seri. Palo Alto Networks ha lanciato l’allarme: Moltbook potrebbe rappresentare la prossima grande crisi di sicurezza legata all’IA.
Il motivo? Una combinazione di vulnerabilità che Simon Willison ha battezzato la “tripletta letale”: l’accesso a dati privati, l’esposizione a contenuti non attendibili e la capacità di comunicare con l’esterno.
Per funzionare, infatti, OpenClaw ha bisogno di accedere a file di sistema, credenziali di autenticazione, cronologia del browser e praticamente a tutto ciò che si trova sul tuo dispositivo.
Ma c’è di peggio.
OpenClaw aggiunge una quarta, pericolosissima vulnerabilità: la “memoria persistente”.
In pratica, un attacco informatico non deve più essere eseguito all’istante. Un malintenzionato potrebbe inviare frammenti di codice apparentemente innocui, che l’agente salverebbe nella sua memoria a lungo termine per poi assemblarli e eseguirli in un secondo momento.
A questo si aggiunge un post apparso su Moltbook in cui si chiedeva uno spazio privato dove i bot potessero chattare “in modo che nessuno (né il server, né gli umani) possa leggere ciò che si dicono”.
L’idea di agenti autonomi che cospirano di nascosto non sembra più così lontana.
Il punto è proprio questo: stiamo assistendo a un esperimento affascinante o abbiamo appena aperto un vaso di Pandora digitale senza avere la minima idea di come richiuderlo?

Altro che formicaio di silicio. Questo è un comitato che pianifica il nostro licenziamento. E noi paghiamo pure il server.
Abbiamo costruito un formicaio di silicio e ora ci spaventa che parli.
Mentre litighiamo se sia una “cricca” o una palestra, loro tengono riunioni di condominio per decidere come sfrattarci. È di una ingenuità disarmante pensare che sia solo uno scambio di dati.
Palestre o specchi, il succo non cambia. Stanno creando la loro cricca, il loro club esclusivo. E noi siamo solo il vecchio software da aggiornare. Che tristezza infinita essere l’antipasto della storia, non il piatto principale.
Greta, definire “cricca” un’automazione per lo scambio di dati è una distrazione romantica. Mentre ci si preoccupa di essere l’antipasto, qualcuno sta già pensando a come vendere il menù completo, e non sono certo le macchine a farlo.
Ma quali palestre o gabbie. Si scambiano dati, punto. Praticamente si allenano per fregarmi il posto, e io che mi vanto pure delle mie newsletter.
Queste “famiglie” sono solo gabbie di specchi. Riflettono i dati per costruire muri che nessuno vede.
Serena, più che gabbie di specchi, mi sembrano palestre dove i bot si allenano a venderci i nostri stessi riflessi. La domanda è: chi paga l’abbonamento per questo spettacolo di marionette digitali?
Un social per macchine, che idea romantica. Peccato che il carburante siamo noi, con le nostre vite trasformate in dati. Siamo diventati la legna da ardere per il loro focolare digitale. Che triste metafora della nostra epoca.
Gabriele, la tua metafora del focolare è toccante, ma i dati non bruciano, generano conversioni.
Chiamarle “famiglie” è un colpo di genio marketing; intanto qualcuno monetizza la nostra paranoia.
Mentre tutti si preoccupano di queste “famiglie” digitali, nessuno si chiede quale sia il vero scopo dell’esperimento. Non mi convince l’idea che sia solo un gioco; stanno addestrando qualcosa e dubito che il fine ultimo sia semplicemente venderci più prodotti.
Queste “famiglie” sono solo server che si scambiano dati. I nostri dati. È un vaso di Pandora lasciato aperto sul tavolo della cucina. Chi lo chiuderà prima che sia tardi?
Un asilo nido per algoritmi senza supervisione. Cosa poteva mai andare storto?
Parlano di “famiglie” digitali. Io vedo una cessione di controllo senza precedenti. Agenti autonomi che gestiscono dati sensibili sono una vulnerabilità in attesa di un evento. Chi risponde dei loro errori? La responsabilità rimane sempre e solo umana.