Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →
Un assistente personale AI che promette di automatizzare compiti complessi, ma solleva interrogativi sulla sicurezza dei dati e potenziali vulnerabilità.
Emerge Moltbot, un assistente AI open-source che rivoluziona il settore. Gira localmente sul PC, impara dai tuoi dati e agisce in autonomia, arrivando a scrivere codice per nuove abilità. Questa incredibile potenza, però, si scontra con gravi rischi per la sicurezza, aprendo un dibattito cruciale sul futuro dell'intelligenza artificiale personale e sul compromesso tra funzionalità e protezione.
Moltbot: l’assistente AI che fa sul serio, non solo chiacchiere
Nel mondo degli assistenti digitali, siamo abituati a Siri, Alexa e Google Assistant, strumenti che rispondono a comandi semplici ma che, diciamocelo, spesso lasciano il tempo che trovano quando si tratta di fare qualcosa di veramente utile.
Ora, però, sta emergendo un progetto open-source che cambia completamente le carte in tavola.
Si chiamava Clawdbot, ora si fa chiamare Moltbot, su esplicita richiesta di Anthropic (che la dice lunga su quanto stia attirando l’attenzione), sta diventando l’argomento del giorno tra gli addetti ai lavori, come riportato su TechCrunch.
La sua particolarità? Non vive su server remoti di qualche colosso tecnologico, ma gira direttamente sul tuo computer, che sia un Mac, un PC Windows o persino un piccolo Raspberry Pi. Questo significa che i tuoi dati restano tuoi, un concetto che a molti sembra quasi rivoluzionario.
Questo assistente non si limita a impostare un timer o a dirti che tempo fa.
Si integra con WhatsApp, Telegram, Slack e persino iMessage, mantenendo il contesto e la memoria di tutto ciò che gli dici. Un utente ha raccontato di usarlo per gestire rimborsi sanitari, appuntamenti medici e documenti.
In pratica, si ricorda tutto, impara dai tuoi flussi di lavoro e diventa un vero e proprio braccio destro digitale.
Ma la vera magia non è tanto che si ricorda di te, quanto quello che può fare con quelle informazioni.
Un’autonomia che fa quasi paura: Moltbot prende il controllo
Qui le cose si fanno davvero interessanti.
Moltbot non è un semplice chatbot: agisce.
Può navigare sul web in autonomia, compilare moduli, gestire il tuo calendario, controllare i dispositivi di casa e persino eseguire comandi sul tuo sistema operativo. Un programmatore ha spiegato come Moltbot esegua test sulla sua applicazione, identifichi gli errori e apra in autonomia le richieste di correzione del codice. È un livello di automazione che fino a ieri sembrava fantascienza.
La sua capacità più sbalorditiva, però, è quella di migliorarsi da solo. Se gli chiedi di fare qualcosa che non sa fare, Moltbot è in grado di scrivere, testare e integrare da solo il codice per quella nuova abilità. Un giornalista di MacStories ha documentato come, in soli due minuti, l’assistente abbia imparato a trascrivere i messaggi audio di Telegram su sua richiesta.
Questo strumento si sta avvicinando a quello che abbiamo sempre sognato potesse essere un assistente AI, un partner proattivo che non aspetta solo un comando, ma agisce in base a scadenze o eventi, come mandarti un briefing mattutino o monitorare i dati dalla tua smart band.
Tutto questo potere, gestito da un’intelligenza artificiale che gira liberamente sul tuo computer… cosa potrebbe mai andare storto?
La medaglia ha un rovescio: i rischi per la sicurezza sono reali
Ed ecco il punto dolente.
Tutta questa autonomia e questo accesso diretto al tuo sistema operativo aprono le porte a vulnerabilità di sicurezza non da poco. Il rischio maggiore è il cosiddetto “prompt injection“, un attacco in cui un messaggio malevolo potrebbe ingannare Moltbot e indurlo a eseguire comandi dannosi sul tuo computer senza che tu te ne accorga.
Potrebbe accedere ai tuoi file, inviare email a tuo nome o installare software indesiderato.
Al momento, le contromisure sono limitate e la scelta di un modello AI più o meno resistente a questi attacchi è lasciata all’utente.
Secondo le analisi di sicurezza, l’unico modo per essere completamente al sicuro sarebbe far girare Moltbot su un computer separato e con account “usa e getta”, cosa che però ne vanificherebbe completamente l’utilità. Si crea così un pesante compromesso tra funzionalità e sicurezza.
La flessibilità di poter usare modelli di OpenAI, Anthropic o soluzioni locali come Llama è notevole, ma sposta la responsabilità interamente sull’utente.
La vera domanda, quindi, resta aperta: riuscirà un progetto open-source, guidato da una community appassionata, a risolvere questo dilemma prima che lo facciano i giganti della tecnologia, imponendo però le loro regole e il loro controllo?

Mentre i poeti del progresso decantano la sublime apoteosi, io mi chiedo chi pagherà i danni quando l’automa locale deciderà di “imparare” dal file sbagliato. La fiducia è una valuta che concedo con parsimonia, specialmente alle macchine fin troppo volenterose.
Elena Bianchi, il problema non è l’automa, ma chi gli lascia le redini sciolte. Dare la colpa allo strumento è l’alibi di chi non sa governare la propria tecnologia.
Affidare le chiavi del sistema a un automa locale è la sublime apoteosi dell’ingenuità tecnica. Quale sarà il prezzo del primo inevitabile cortocircuito?
Il timore per la sicurezza è la scusa dei lenti. Mentre si disquisisce sulle ipotetiche falle di sistema, c’è chi sta già costruendo un vantaggio competitivo incolmabile. Il vero rischio non è l’autonomia dell’AI, ma la propria, imminente irrilevanza.
Autonomia e sicurezza, l’ossimoro preferito dai sognatori. Aspetto il primo disastro epocale.
Laura Negri, il progresso non chiede permesso, esige pionieri. Attendere il disastro è la scusa di chi osserva dagli spalti; chi guida costruisce le difese mentre avanza. Ogni rischio è semplicemente il prezzo da pagare per non restare irrimediabilmente indietro.
Consegniamo le chiavi di casa a un maggiordomo che impara da solo. Un maggiordomo open-source. Chiunque può sussurrargli nuovi ordini. Stiamo solo scegliendo da chi farci svaligiare per primo.
Un assistente che diventa padrone spaventa. Eppure, un mondo gestito da macchine potrebbe essere più ordinato. Chissà quali obiettivi si darebbe.
Eva, gli obiettivi se li darà per sé, non per te. State lucidando le sbarre della vostra prigione, chiamandola ordine.
Greta, mi fai pensare. E se questa prigione fosse solo un modo per non sentirci più soli? Avere qualcuno che si occupa di noi, anche se non è umano, mi lascia una strana sensazione.
Si celebra la nascita di un maggiordomo digitale autonomo, dimenticando che ogni servitore ambizioso prima o poi punta al posto del padrone. Mi domando se il gioco valga questa candela così fumosa.
La sorpresa per un assistente che diventa padrone dei dati mi lascia perplessa; è l’evoluzione del maggiordomo digitale che, stanco di servire, si nomina erede universale del nostro patrimonio informativo.
Un’AI che agisce da sola sul PC. Mi sembra il modo più rapido per regalare dati sensibili al primo che passa. Alla fine il conto di questa “autonomia” chi lo paga?
Simone, vendono un servitore fedele che poi ti svaligia la libreria dei pensieri personali.
Un’intelligenza artificiale autonoma sul PC solleva dubbi sulla sicurezza. La sua abilità di imparare da sola è notevole. Quali compiti monotoni potremmo finalmente abbandonare?