Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →
L’IA è ormai un’arma a doppio taglio, capace di attacchi informatici sofisticati e manipolazione emotiva, tanto da scalare la classifica dei rischi globali
L'era dell'entusiasmo per l'Intelligenza Artificiale è finita. L'IA si è trasformata in un'arma per attacchi informatici sofisticati e uno strumento di potenziale manipolazione emotiva. Dalle analisi di Vanta al World Economic Forum, emerge un quadro allarmante: quella che era una promessa di progresso è oggi una delle principali minacce globali, una normalità che nessuno voleva.
Attacchi AI: la nuova normalità che nessuno voleva
Diciamocelo, fino a poco tempo fa l’intelligenza artificiale era vista da molti come il collega di lavoro iper-efficiente che ti sbrigava le task più noiose.
Un’assistente instancabile.
Peccato che, mentre noi la usavamo per scrivere email e analizzare dati, qualcun altro ha capito come trasformarla in un’arma. E i risultati iniziano a vedersi.
Secondo una ricerca di Vanta, ben il 72% dei responsabili della sicurezza informatica afferma che il livello di rischio non è mai stato così alto, proprio a causa di attacchi potenziati dall’AI, che sono diventati più precisi e voluminosi.
Non stiamo parlando del classico tentativo di phishing che riconosci da un chilometro, ma di offensive sofisticate, personalizzate, quasi indistinguibili da una comunicazione legittima.
Ma se pensi che il pericolo sia solo esterno, che riguardi solo i dati aziendali, ti sbagli di grosso.
C’è un’insidia che si sta facendo strada direttamente nelle nostre vite private, e lo fa con un sorriso.
Il compagno artificiale: amico fidato o abile manipolatore?
Parliamo di quelle IA “umanoidi”, i cosiddetti compagni digitali, progettati per interagire con noi, offrirci supporto emotivo, diventare nostri amici.
Sembra una bella cosa, no?
Forse troppo.
La questione è talmente seria che persino la Cina sta correndo ai ripari con una bozza di regolamentazione per limitare i rischi di dipendenza emotiva e manipolazione, specialmente sui minori.
E qui la domanda sorge spontanea: queste grandi aziende stanno davvero creando “amici” per combattere la solitudine o stanno perfezionando i più abili venditori della storia, capaci di costruire un legame emotivo solo per poi sfruttarlo?
Il confine tra supporto e persuasione non è mai stato così sottile.
E questa sensazione di disagio, questa percezione di un rischio che cresce e cambia forma, non è più un’opinione di pochi. È diventata una certezza a livello mondiale, certificata da chi i rischi li misura per mestiere.
Un salto da brividi nella classifica dei rischi globali
Ricordi quando i rischi legati all’IA sembravano roba da film di fantascienza?
Bene, quell’epoca è finita.
Fino a qualche anno fa, erano altre le preoccupazioni in cima ai pensieri di governi e multinazionali. Oggi, come riportato nel Global Risks Report 2026 del World Economic Forum, i “risultati avversi dell’IA” sono schizzati dalla trentesima alla quinta posizione nella classifica dei rischi globali a lungo termine.
Te lo traduco: non è più un “se”, ma un “quando” e “come”.
Governi e grandi organizzazioni hanno smesso di considerare l’IA una semplice innovazione tecnologica e hanno iniziato a vederla per quello che è: una forza in grado di destabilizzare economie, politica e società. Questo non significa che dobbiamo spegnere tutto e tornare all’età della pietra, ma che l’era dell’entusiasmo cieco e della fiducia incondizionata è ufficialmente terminata.

Ogni strumento potente genera inevitabilmente i suoi abusi più sofisticati; la vera metrica di rischio è stata la nostra ingenuità nel non prevederlo prima.
Ci hanno venduto un maggiordomo digitale, ci siamo ritrovati con un sicario. Marketing geniale.
Massimo Martino, hai centrato il punto. Si gioca tutto sulla narrazione. La vera domanda è chi scriverà il prossimo capitolo per questa tecnologia.
Abbiamo aperto il vaso di Pandora per noia, ora ci lamentiamo degli spifferi. Lo strumento diventa sempre arma. Il punto non è la tigre in salotto, ma chi continua a nutrirla credendola un gattino. L’ingenuità è il vero problema.
La nostra più grande invenzione ci riflette. E il riflesso non è lusinghiero.
Chiara De Angelis, più che un riflesso, mi pare lo specchio per le allodole che ci è scoppiato in mano. Ci siamo gasati per una figata tecnologica, e adesso chi mette a posto i cocci?
Abbiamo allevato una tigre in salotto. Adesso la fissiamo negli occhi.