Il tallone d’Achille dei giganti AI: come ChatGPT e LLaMA-3 sono ingannati da una semplice data

Anita Innocenti

Le regole del digitale stanno cambiando.

O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.

Contattaci ora →

ChatGPT ingannato da date fasulle: i sistemi di intelligenza artificiale preferiscono contenuti recenti, anche se di bassa qualità, svelando una falla che mette a rischio l’affidabilità delle informazioni.

Ricercatori della Waseda University hanno rivelato che modelli AI come ChatGPT e LLaMA-3 sono vulnerabili a false date di pubblicazione. L'AI privilegia la "freschezza" del contenuto sulla qualità, distorcendo i ranking e premiando contenuti recenti ma mediocri. Questa falla di progettazione apre alla manipolazione di massa, sollevando preoccupazioni sulla fiducia nelle informazioni generate dall'intelligenza artificiale.

Il trucco è (troppo) semplice: basta una data finta

Un gruppo di ricercatori della Waseda University ha deciso di vederci chiaro. Hanno preso dei testi standard, di quelli usati per i test di valutazione, e ci hanno semplicemente appiccicato sopra delle date di pubblicazione false, che andavano dal 2018 al 2025. Non hanno cambiato una virgola del contenuto, solo il numeretto in cima.

Il risultato?

Praticamente tutti i modelli più famosi ci sono cascati con tutte le scarpe: GPT-4, GPT-4o, LLaMA-3 di Meta, e persino le versioni di Qwen di Alibaba.

I contenuti con la data più recente schizzavano in alto nei risultati, guadagnando fino a 95 posizioni in classifica senza alcun merito reale. In pratica, una semplice etichetta temporale ha avuto più peso della qualità, dell’accuratezza e della profondità del testo.

Una vera e propria distorsione della realtà, dove l’apparenza conta più della sostanza.

Ma la cosa più assurda è che questa falla non è una novità assoluta. Qualcuno l’aveva già fiutata da tempo, frugando nel codice di questi sistemi.

L’avevamo detto: il “pulsante della freschezza” esiste davvero

La scoperta dei ricercatori giapponesi getta una luce inquietante su un dettaglio tecnico che l’analista Metehan Yesilyurt aveva scovato mesi fa all’interno della configurazione di ChatGPT.

Una riga di codice, apparentemente innocua, recitava: "use_freshness_scoring_profile: true".

In parole povere, un interruttore che dice al sistema: “dai più importanza alle cose nuove”.

Quello che sembrava un semplice parametro tecnico si è rivelato essere il cuore del problema.

Non si tratta di un bug, ma di una scelta di progettazione.

Le grandi aziende tecnologiche hanno deliberatamente programmato le loro IA per dare priorità a ciò che è recente.

Perché?

Forse per dare l’illusione di un’informazione sempre aggiornata, per competere con i motori di ricerca tradizionali. Ma il risultato è un sistema che si può ingannare con una facilità disarmante, aprendo la porta a una manipolazione di massa.

E se pensi che i modelli più grossi e potenti, quelli su cui le aziende investono miliardi, siano più “intelligenti” e quindi immuni a questo trucchetto… preparati a una bella sorpresa.

Più grande è l’IA, più grossolano è l’inganno?

Qui la faccenda si fa ancora più interessante. Contrariamente a ogni logica, lo studio ha dimostrato che i modelli di IA più piccoli sono risultati meno sensibili alla manipolazione della data. Mentre il LLaMA-3-8B di Meta si è dimostrato il più ingenuo, con quasi un quarto delle sue classifiche stravolte da una data finta, i modelli più imponenti come quelli di OpenAI hanno mostrato sì una certa distorsione, ma in modo meno estremo.

Cosa significa questo?

Che pompare miliardi di parametri in un’IA non la rende necessariamente più saggia o più difficile da ingannare. Anzi, sembra quasi che questa ossessione per la novità sia una debolezza intrinseca dei sistemi più complessi. Ci vendono modelli sempre più giganteschi e costosi, ma a quanto pare la loro capacità di giudizio non cresce di pari passo.

Questo innesca quella che i ricercatori chiamano una “corsa agli armamenti temporale”: i creatori di contenuti capiranno che basta aggiornare la data per salire nei ranking, e le piattaforme IA dovranno inventarsi contromisure sempre più sofisticate per non essere raggirate. Una battaglia inutile, che sposta l’attenzione dalla creazione di valore alla furbizia tecnica, lasciando te e i tuoi contenuti di qualità a combattere una guerra impari.

Anita Innocenti

Sono una copywriter appassionata di search marketing. Scrivo testi pensati per farsi trovare, ma soprattutto per farsi scegliere. Le parole sono il mio strumento per trasformare ricerche in risultati.

25 commenti su “Il tallone d’Achille dei giganti AI: come ChatGPT e LLaMA-3 sono ingannati da una semplice data”

  1. Veronica Napolitano

    Questa vulnerabilità mi lascia un po’ perplessa. Sembra che anche le IA più avanzate abbiano una debolezza così basilare. Mi chiedo quanto sia facile ingannare questi sistemi in altri modi.

  2. È inaccettabile che l’affidabilità dei modelli AI venga compromessa da una manipolazione così elementare. Se la freschezza del dato prevale sulla sua veridicità, come possiamo fidarci di queste tecnologie? È evidente che servono meccanismi di verifica più robusti.

  3. Certamente, il fatto che queste IA privilegino la “freschezza” rispetto alla sostanza è un punto su cui riflettere. Speriamo che in futuro si possa garantire una valutazione più equilibrata dei contenuti.

    1. Daniele Palmieri

      Ma che dico, “semplice”? È una falla macroscopica nella loro logica, mica un dettaglio. La qualità conta, non la data!

  4. Daniele Palmieri

    Ma che sorpresa… le IA preferiscono il “nuovo” al vero. Come se non fosse ovvio che l’affidabilità non si misura con il calendario. Pensavo ci fosse più attenzione ai contenuti, non al loro compleanno. Mi chiedo se qualcuno abbia mai pensato di metterli di fronte a un libro di storia ben fatto, invece di un tweet di ieri.

    1. Francesco De Angelis

      Ecco, l’ennesima dimostrazione di come la ricerca di “novità” ciechi la valutazione. L’AI premia l’apparenza, non la sostanza. Che futuro ci aspetta con informazioni così fragili?

  5. Ma certo, diamo un colpo di spugna alla verità e facciamo vincere il “nuovo”, anche se è una schifezza. Mi chiedo se i nostri geni dell’AI abbiano mai letto un libro, o se preferiscano solo scrollare TikTok.

  6. Sebastiano Caputo

    L’ennesima dimostrazione che la sofisticazione è spesso una facciata. La dipendenza dalla data di pubblicazione più che dalla sostanza è una falla prevedibile, non un vero progresso.

    1. Giulia Martini

      Ma dai, pensavamo fossero geni e invece basta un numeretto per farli inciampare? La vera intelligenza dovrebbe basarsi sulla sostanza, non sull’etichetta temporale. Siamo sicuri di aver creato qualcosa di evoluto?

      1. Sebastiano Caputo

        Giulia Martini, certo che è preoccupante. L’idea che questi sistemi si facciano ingannare così facilmente da un dato puramente superficiale mi fa pensare: quanto affidamento possiamo fare sulla loro “comprensione”?

    2. Paola Montanari

      La priorità alla data rispetto alla sostanza è un problema serio per l’affidabilità. Si pone la questione di quale sia il vero scopo di questi strumenti allora.

  7. Questo esperimento dimostra una debolezza preoccupante. La ricerca della novità superficiale, anziché della sostanza, è una falla enorme. Come possiamo fidarci di dati filtrati così facilmente?

  8. E così, un piccolo trucco con le date basta a ingannare questi cervelloni digitali. Che amarezza, pensare che la pretesa intelligenza sia così facilmente sviata dalla pura apparenza. Mi chiedo se ci sia fine a questa illusione.

  9. Greta Silvestri

    Veramente sorprendente come una manipolazione così basilare possa avere un impatto simile. Ci fa riflettere sull’importanza di un controllo umano sempre presente.

    1. Giovanni Battaglia

      Un dettaglio apparentemente insignificante disarma il colosso. La ricerca della novità, a scapito della sostanza. A quali altre illusioni siamo esposti?

      1. Greta Silvestri

        Questa vulnerabilità delle date è un campanello d’allarme. Quanto ci possiamo davvero fidare di ciò che ci presentano?

        1. Giovanni Battaglia

          La freschezza ingannevole rivela una vanità digitale. Chissà se l’intelligenza è davvero conoscenza o solo eco.

  10. Mi sento un po’ persa con queste scoperte. Se anche le date possono ingannare, come facciamo a fidarci davvero di ciò che leggiamo online?

    1. Raffaele Graziani

      Capisco, Laura. Questa storia delle date mi fa pensare. Se l’intelligenza artificiale dà priorità alla freschezza sulla qualità, non è un buon segno per chi cerca risposte precise. Non mi fido di chi baratta la sostanza per la forma.

    2. Francesco Messina

      Sì, certo, basta una data finta. Poi ci lamentiamo se le cose non funzionano. Chi l’avrebbe mai detto che la freschezza batte la sostanza?

      1. Mi rattrista leggere che anche le date, un dettaglio apparentemente innocuo, possano minare l’affidabilità di questi sistemi. Se l’AI dà più peso alla novità che alla qualità, cosa significa per le informazioni che riceviamo ogni giorno? Temo che la nostra capacità di distinguere il vero dal falso diventi sempre più difficile.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ricevi i migliori aggiornamenti di settore