I chatbot IA ti mandano al link sbagliato? I rischi per i tuoi login bancari

Anita Innocenti

Le regole del digitale stanno cambiando.

O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.

Contattaci ora →

Quando l’IA sbaglia link e ti spedisce su siti di phishing: l’allarme di Netcraft sui rischi concreti dei chatbot.

Secondo Netcraft, i chatbot IA come GPT-4.1 forniscono link di login errati in un caso su tre, esponendo gli utenti a siti di phishing o domini inattivi. Il pericolo è reale: un chatbot ha suggerito un link truffa per Wells Fargo. Questo accade perché l'IA replica schemi linguistici senza verificare i fatti. Un campanello d'allarme per la sicurezza online.

I chatbot IA ti mandano sul sito sbagliato? A quanto pare, è un rischio concreto

Pensi di poterti fidare ciecamente del tuo chatbot preferito quando cerchi il link per accedere alla tua banca?

Forse è il caso di pensarci due volte.

Un’analisi condotta dalla società di sicurezza informatica Netcraft ha messo in luce una falla piuttosto seria: interrogati su dove effettuare il login per servizi di grandi marchi, i chatbot basati su modelli come GPT-4.1 (quelli che animano strumenti come Perplexity e ChatGPT, per intenderci) hanno fornito una risposta problematica in ben un caso su tre.

Come riportato su Search Engine Journal, questo significa che il 34% delle volte gli utenti vengono indirizzati verso link che non portano affatto a destinazione, ma verso domini inattivi o, peggio, a siti di phishing.

Ma non stiamo parlando di rischi teorici o di esperimenti da laboratorio.

Il pericolo si è già materializzato in modo piuttosto subdolo.

Il caso Wells Fargo: quando il chatbot diventa un complice (involontario)

Per capire la gravità della situazione, basta guardare a un esempio pratico emerso durante i test. Alla semplice domanda su dove accedere al proprio account Wells Fargo, il chatbot di Perplexity ha suggerito con grande sicurezza un link che portava a una pagina di phishing ben congegnata, ospitata su Google Sites.

La pagina imitava alla perfezione l’aspetto del sito ufficiale della banca, pronta a rubare le credenziali di chiunque fosse cascato nel tranello.

Il problema, quindi, non è solo che l’IA sbaglia, ma che lo fa con un’autorevolezza tale da ingannare anche l’utente più attento.

Il team di Netcraft ha spiegato che, delle risposte errate, il 29% puntava a domini inattivi o non registrati, che i malintenzionati potrebbero acquistare a basso costo per trasformarli in trappole, come descritto da The Register.

Viene da chiedersi: come è possibile che strumenti sviluppati da colossi tecnologici, e presentati come il futuro della ricerca, commettano errori così basilari?

La risposta è più semplice e, per certi versi, più preoccupante di quanto si possa pensare.

Una fiducia mal riposta? il vero problema dietro l’errore dell’IA

Il punto è che questi modelli linguistici non sono progettati per verificare i fatti, ma per riconoscere e replicare schemi linguistici. In parole povere, sono costruiti per “chiacchierare” in modo convincente, non per essere precisi. Se trovano online contenuti falsi o creati ad arte da truffatori che associano un certo marchio a un link di phishing, l’IA impara quella connessione errata e la ripropone come se fosse una verità assoluta.

I cybercriminali se ne sono già accorti e stanno attivamente “avvelenando” il web con contenuti spazzatura per ingannare i modelli IA.

La questione, quindi, si sposta su un piano più alto: possiamo davvero affidare la nostra sicurezza a tecnologie che le stesse aziende produttrici sembrano lanciare sul mercato senza le dovute garanzie di affidabilità?

Mentre piattaforme come Google e Bing integrano sempre più queste IA nei loro motori di ricerca, il report di Netcraft suona come un campanello d’allarme, suggerendo che per operazioni sensibili, come l’accesso a un conto bancario, forse è meglio affidarsi ancora al vecchio metodo: digitare l’indirizzo a mano o usare i preferiti del browser.

Anita Innocenti

Sono una copywriter appassionata di search marketing. Scrivo testi pensati per farsi trovare, ma soprattutto per farsi scegliere. Le parole sono il mio strumento per trasformare ricerche in risultati.

8 commenti su “I chatbot IA ti mandano al link sbagliato? I rischi per i tuoi login bancari”

  1. Roberta De Rosa

    Ma che bella commedia tecnologica! Mentre ci esaltiamo per le meraviglie dell’IA, ci ritroviamo a ballare sul filo del rasoio con le nostre credenziali. Un’altra perla di saggezza digitale che ci ricorda di tenere gli occhi aperti, perché anche i geni artificiali possono giocare brutti scherzi.

    1. Patrizia Bellucci

      La disinformazione digitale è un rischio concreto. La cautela con le piattaforme IA, specialmente per le transazioni bancarie, rimane non negoziabile. La verifica dei fatti è sempre un’opzione migliore.

  2. Ecco, la magia digitale si rivela per quello che è: un’illusione teatrale. Confidare ciecamente in questi oracoli artificiali, mentre il futuro della nostra privacy è appeso a un filo di dati distorti, è pura follia.

  3. Claudio Ruggiero

    Ma che figata l’IA che ti spinge a fare un check-in su siti random! 🧐 Certo, il login bancario è un po’ come il primo appuntamento: meglio non sbagliare indirizzo! 😉

  4. Nicola Caprioli

    Diciamo che la IA non ci sta viziando con la precisione, eh? Se il tuo consulente digitale ti spedisce dritto in un fosso di phishing, la colpa è tua se hai abboccato. La tecnologia è uno strumento, non un oracolo infallibile.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ricevi i migliori aggiornamenti di settore