Le audaci promesse di OpenAI su GPT-5 incontrano una dura realtà: le allucinazioni persistono

Anita Innocenti

Le regole del digitale stanno cambiando.

O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.

Contattaci ora →

Ma, a un mese dal lancio, i dati reali mostrano un’AI ancora incline alle “allucinazioni”, con errori grossolani e invenzioni di fonti, nonostante le promesse di miglioramenti.

GPT-5 di OpenAI, nonostante le audaci promesse, sta rivelando gravi limiti nell'accuratezza. Utenti e ricercatori documentano 'allucinazioni' e dati fattuali errati, come PIL raddoppiati. OpenAI stessa ammette che il modello, progettato per fornire sempre una risposta, fatica ad ammettere incertezza. Ciò solleva preoccupazioni sull'affidabilità di GPT-5 e le implicazioni per un miliardo di utenti che si affidano all'IA per informazioni cruciali.

La verità tecnica dietro il sipario

In un’analisi sorprendentemente onesta, la stessa OpenAI ha ammesso che “le allucinazioni persistono in parte perché gli attuali metodi di valutazione creano gli incentivi sbagliati”.

Il problema, in parole povere, sta nel modo in cui questi modelli vengono addestrati: sono progettati per fornire sempre una risposta, anche quando non sono sicuri, piuttosto che ammettere di non conoscere un’informazione.

Sono macchine costruite per indovinare, non per essere oneste sulla propria incertezza.

Certo, l’azienda rivendica miglioramenti notevoli con la sua modalità “pensiero”, che secondo i loro dati ridurrebbe le allucinazioni di circa sei volte. Eppure, persino il CEO Sam Altman ha dovuto riconoscere che le prestazioni del modello non sempre sono all’altezza del marketing.

E se le parole non bastassero, ci sono esperimenti pratici che mostrano limiti quasi comici. Gary Smith, un noto scettico dell’IA, ha messo alla prova GPT-5 con un compito apparentemente semplice: disegnare un opossum con cinque parti del corpo etichettate.

Il risultato?

L’IA ha generato i termini anatomici corretti ma li ha posizionati in modo completamente casuale, etichettando una zampa come “naso” e la coda come “piede posteriore sinistro”.

Ma se un’intelligenza artificiale non riesce nemmeno a capire com’è fatto un animale, quali sono le conseguenze quando la usiamo per compiti molto più seri?

Le implicazioni che nessuno ti racconta

Il problema non è tanto l’errore in sé, quanto la sicurezza granitica con cui viene presentato. Il ricercatore Freddie DeBoer ha dimostrato quanto sia facile indurre GPT-5 a inventare di sana pianta fonti e citazioni inesistenti.

Quando veniva colto in fallo, il modello si scusava, prometteva di verificare la fonte successiva e… ne inventava un’altra.

Questo schema si ripete, creando un circolo vizioso di disinformazione credibile.

Con quasi un miliardo di utenti che si affidano a ChatGPT, la domanda sorge spontanea:

Quante di queste persone verificano davvero le informazioni che ricevono?

La questione si fa ancora più seria in settori delicati. Studi sulla precisione medica hanno rilevato che, sebbene l’IA possa fornire buone informazioni generali, spesso omette dettagli cruciali, rendendola inaffidabile rispetto a risorse mediche consolidate.

Alla fine, il punto è questo: GPT-5 rappresenta un progresso, nessuno lo nega.

Ma la sua architettura fondamentale rimane quella di una macchina probabilistica, progettata per prevedere la parola successiva più plausibile, non per discernere la verità.

Finché questo paradigma non cambierà, l’idea di un’IA veramente affidabile rimane, per ora, solo un’altra delle audaci promesse di marketing.

Anita Innocenti

Sono una copywriter appassionata di search marketing. Scrivo testi pensati per farsi trovare, ma soprattutto per farsi scegliere. Le parole sono il mio strumento per trasformare ricerche in risultati.

11 commenti su “Le audaci promesse di OpenAI su GPT-5 incontrano una dura realtà: le allucinazioni persistono”

  1. L’ingenuità di credere alle promesse di un’IA infallibile è davvero sconcertante. Speriamo che i prossimi “miglioramenti” non siano solo specchietti per le allodole.

  2. Chiara De Angelis

    Ah, la vecchia storia. Promettono il paradiso e consegnano un vicolo cieco. Sembra che anche le macchine abbiano i loro vizi.

    1. Mi lascia perplesso che l’IA sia progettata per rispondere sempre, anche senza certezze. Non è meglio la trasparenza sull’incertezza?

      1. Sabrina Coppola

        Fabio, la trasparenza sull’incertezza è l’unica via. Non si può costruire fiducia su risposte inventate. Se l’IA mente, come possiamo fidarci di lei per decisioni serie?

  3. Mi tremano un po’ le mani a leggere queste cose. Se un sistema che dovrebbe aiutarci a capire il mondo ci propina robe inventate, cosa ci resta? La fiducia è un bene prezioso, e se viene a mancare, mi sento persa. Come faremo a sapere cosa credere?

  4. L’ammissione di OpenAI sulle “allucinazioni” di GPT-5 è un passo onesto, ma non risolve il problema di fondo. Se l’IA è programmata per inventare piuttosto che ammettere ignoranza, l’affidabilità resta un miraggio. Quanto tempo ci vorrà prima che la trasparenza prevalga sui profitti?

    1. Nicolò Sorrentino

      Marta Amato, l’onestà è un lusso che OpenAI sembra concedersi solo quando la figuraccia è già servita. L’IA deve rispondere, ma a costo di inventarsi il mondo? Mi chiedo quanto credibilità rimarrà quando la finzione diventerà la norma.

    2. Giulia Martini

      È sempre stimolante vedere come le ambizioni tecnologiche si scontrino con la realtà. L’incapacità di un modello di ammettere l’incertezza, anziché inventare, è un punto dolente che merita la nostra attenzione. Dobbiamo costruire fiducia, non facciate.

  5. Roberta De Rosa

    Promesse montate, realtà deludente. Il profitto guida, la verità tecnica resta un optional. Quando pagano, la precisione diventa negoziabile.

  6. Le solite chiacchiere da marketing. Si fanno proclami altisonanti, ma la sostanza è questa: l’IA, per ora, è un bluff su larga scala. Finchè non impareranno a farle ammettere l’ignoranza, il rischio è di farsi raccontare un sacco di frottole.

    1. Sempre la stessa musica. Annunciano rivoluzioni, poi si scopre che sono solo miglioramenti superficiali. Mi chiedo se mai arriveremo a un’IA che riconosca i propri limiti, invece di inventare risposte a caso. Forse è questa la vera sfida.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ricevi i migliori aggiornamenti di settore