Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →Quando l’IA sbaglia link e ti spedisce su siti di phishing: l’allarme di Netcraft sui rischi concreti dei chatbot.
Secondo Netcraft, i chatbot IA come GPT-4.1 forniscono link di login errati in un caso su tre, esponendo gli utenti a siti di phishing o domini inattivi. Il pericolo è reale: un chatbot ha suggerito un link truffa per Wells Fargo. Questo accade perché l'IA replica schemi linguistici senza verificare i fatti. Un campanello d'allarme per la sicurezza online.
I chatbot IA ti mandano sul sito sbagliato? A quanto pare, è un rischio concreto
Pensi di poterti fidare ciecamente del tuo chatbot preferito quando cerchi il link per accedere alla tua banca?
Forse è il caso di pensarci due volte.
Un’analisi condotta dalla società di sicurezza informatica Netcraft ha messo in luce una falla piuttosto seria: interrogati su dove effettuare il login per servizi di grandi marchi, i chatbot basati su modelli come GPT-4.1 (quelli che animano strumenti come Perplexity e ChatGPT, per intenderci) hanno fornito una risposta problematica in ben un caso su tre.
Come riportato su Search Engine Journal, questo significa che il 34% delle volte gli utenti vengono indirizzati verso link che non portano affatto a destinazione, ma verso domini inattivi o, peggio, a siti di phishing.
Ma non stiamo parlando di rischi teorici o di esperimenti da laboratorio.
Il pericolo si è già materializzato in modo piuttosto subdolo.
Il caso Wells Fargo: quando il chatbot diventa un complice (involontario)
Per capire la gravità della situazione, basta guardare a un esempio pratico emerso durante i test. Alla semplice domanda su dove accedere al proprio account Wells Fargo, il chatbot di Perplexity ha suggerito con grande sicurezza un link che portava a una pagina di phishing ben congegnata, ospitata su Google Sites.
La pagina imitava alla perfezione l’aspetto del sito ufficiale della banca, pronta a rubare le credenziali di chiunque fosse cascato nel tranello.
Il problema, quindi, non è solo che l’IA sbaglia, ma che lo fa con un’autorevolezza tale da ingannare anche l’utente più attento.
Il team di Netcraft ha spiegato che, delle risposte errate, il 29% puntava a domini inattivi o non registrati, che i malintenzionati potrebbero acquistare a basso costo per trasformarli in trappole, come descritto da The Register.
Viene da chiedersi: come è possibile che strumenti sviluppati da colossi tecnologici, e presentati come il futuro della ricerca, commettano errori così basilari?
La risposta è più semplice e, per certi versi, più preoccupante di quanto si possa pensare.
Una fiducia mal riposta? il vero problema dietro l’errore dell’IA
Il punto è che questi modelli linguistici non sono progettati per verificare i fatti, ma per riconoscere e replicare schemi linguistici. In parole povere, sono costruiti per “chiacchierare” in modo convincente, non per essere precisi. Se trovano online contenuti falsi o creati ad arte da truffatori che associano un certo marchio a un link di phishing, l’IA impara quella connessione errata e la ripropone come se fosse una verità assoluta.
I cybercriminali se ne sono già accorti e stanno attivamente “avvelenando” il web con contenuti spazzatura per ingannare i modelli IA.
La questione, quindi, si sposta su un piano più alto: possiamo davvero affidare la nostra sicurezza a tecnologie che le stesse aziende produttrici sembrano lanciare sul mercato senza le dovute garanzie di affidabilità?
Mentre piattaforme come Google e Bing integrano sempre più queste IA nei loro motori di ricerca, il report di Netcraft suona come un campanello d’allarme, suggerendo che per operazioni sensibili, come l’accesso a un conto bancario, forse è meglio affidarsi ancora al vecchio metodo: digitare l’indirizzo a mano o usare i preferiti del browser.
Ma che bella commedia tecnologica! Mentre ci esaltiamo per le meraviglie dell’IA, ci ritroviamo a ballare sul filo del rasoio con le nostre credenziali. Un’altra perla di saggezza digitale che ci ricorda di tenere gli occhi aperti, perché anche i geni artificiali possono giocare brutti scherzi.
Link errati. La fiducia cieca? Un miraggio digitale.
La disinformazione digitale è un rischio concreto. La cautela con le piattaforme IA, specialmente per le transazioni bancarie, rimane non negoziabile. La verifica dei fatti è sempre un’opzione migliore.
Link sbagliati. L’IA non è mica un guru della sicurezza. Occhio.
La credulità digitale è un lusso che non ci possiamo permettere, specialmente quando in ballo ci sono i conti.
Ecco, la magia digitale si rivela per quello che è: un’illusione teatrale. Confidare ciecamente in questi oracoli artificiali, mentre il futuro della nostra privacy è appeso a un filo di dati distorti, è pura follia.
Ma che figata l’IA che ti spinge a fare un check-in su siti random! 🧐 Certo, il login bancario è un po’ come il primo appuntamento: meglio non sbagliare indirizzo! 😉
Diciamo che la IA non ci sta viziando con la precisione, eh? Se il tuo consulente digitale ti spedisce dritto in un fosso di phishing, la colpa è tua se hai abboccato. La tecnologia è uno strumento, non un oracolo infallibile.