Scandalo Deloitte in Australia: l’IA “creativa” produce un report con fonti inventate

Anita Innocenti

Le regole del digitale stanno cambiando.

O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.

Contattaci ora →

Un report pieno di errori grossolani smascherato da un accademico rivela un uso improprio dell’IA, sollevando dubbi sulla credibilità delle società di consulenza.

Deloitte Australia è al centro di uno scandalo credibilità. Un report governativo da 440.000 AUD, redatto con IA (GPT-4o), è stato scoperto contenere riferimenti accademici e citazioni federali inventate. Un accademico ha smascherato il pasticcio, costringendo Deloitte ad ammettere l'uso non dichiarato dell'IA e a rimborsare parte del contratto.

Un accademico smaschera l’inganno: citazioni e fonti inventate di sana pianta

Tutto è partito da un report commissionato dal Dipartimento del Lavoro australiano per una valutazione del loro sistema di welfare, un lavoro da 440.000 dollari australiani.

Un compito delicato, che richiede precisione e affidabilità.

Peccato che il documento finale contenesse, come descritto dal Financial Times, una serie di errori a dir poco imbarazzanti: riferimenti accademici a persone inesistenti e persino una citazione completamente inventata, attribuita a una sentenza della Corte Federale.

A scoprire il pasticcio è stato un accademico, Chris Rudge, che, leggendo il report, si è accorto che qualcosa non tornava.

Non parliamo di un refuso o di una virgola fuori posto, ma di fonti inventate di sana pianta.

Ma come è possibile che un report pagato a peso d’oro contenga errori che non passerebbero un esame universitario?

La risposta, venuta a galla solo in un secondo momento, è tanto semplice quanto preoccupante.

La confessione tardiva: “Sì, abbiamo usato l’intelligenza artificiale”

Messa alle strette, Deloitte ha dovuto ammettere la verità. In una versione corretta del report, pubblicata in fretta e furia, è comparsa una nota che prima non c’era: per la stesura del documento era stato utilizzato un modello di IA generativa, nello specifico GPT-4o su piattaforma Azure.

Il punto cruciale?

Questa “piccola” informazione era stata omessa nella prima versione, come riporta TechCrunch.

La trasparenza, a quanto pare, è un optional, da usare solo quando la frittata è già fatta.

Viene da chiedersi: quante altre volte vengono usati questi strumenti senza che il cliente ne sappia nulla, fidandosi ciecamente del nome altisonante sulla copertina?

A questo punto, mettere una pezza con un rimborso parziale e una versione corretta del documento sembra quasi il minimo sindacale.

Ma basta davvero a cancellare il danno d’immagine e, soprattutto, a ripristinare la fiducia?

Il conto da pagare: non solo soldi, ma anche credibilità

Deloitte ha confermato che rimborserà l’ultima rata del contratto, ma il vero prezzo da pagare non è economico.

È una questione di credibilità.

Un errore che ha fatto scalpore soprattutto per la tempistica: nello stesso giorno in cui la società si trovava a giustificare il “pasticcio australiano”, Deloitte annunciava una maxi collaborazione con Anthropic, la startup fondata dagli ex di OpenAI, per introdurre Claude — il chatbot concorrente di ChatGPT — nei propri sistemi interni.

Il risultato? Una coincidenza grottesca: da una parte, un contratto governativo rimborsato per colpa dell’IA; dall’altra, un accordo globale per adottare ancora più IA.

In un momento in cui tutte le grandi società di consulenza si promuovono come pioniere dell’innovazione e dell’intelligenza artificiale, un incidente del genere è una macchia difficile da lavare.

Solleva un dubbio enorme: ci si può fidare di queste aziende che vendono soluzioni avveniristiche se poi non sono in grado di garantire un controllo umano basilare sui risultati prodotti?

La vicenda dimostra che affidarsi ciecamente alla tecnologia senza un rigoroso processo di verifica non è innovazione, è semplicemente un azzardo. E a volte, come in questo caso, l’azzardo non paga. Anzi, presenta un conto molto salato.

Anita Innocenti

Sono una copywriter appassionata di search marketing. Scrivo testi pensati per farsi trovare, ma soprattutto per farsi scegliere. Le parole sono il mio strumento per trasformare ricerche in risultati.

9 commenti su “Scandalo Deloitte in Australia: l’IA “creativa” produce un report con fonti inventate”

  1. Angela Ferrari

    È preoccupante che un report di tale portata si basi su informazioni inventate. La trasparenza sull’uso dell’IA in ambiti così seri dovrebbe essere la norma, non l’eccezione. La credibilità si costruisce con l’accuratezza, non con scorciatoie tecnologiche.

  2. Beatrice Benedetti

    Ma dai, che novità. Le società di consulenza che promettono mari e monti con l’IA… poi si scoprono i magheggi. Proprio furbi.

    1. Ma che sorpresa. Si fidano di un chatbot per un lavoro da mezzo milione e poi si meravigliano che sia un disastro? Io mi aspetto sempre il peggio.

    2. Giovanni Graziani

      La generazione di contenuti non verificati da parte di un’IA, specialmente in contesti professionali, indica una carenza di controllo qualità. La responsabilità ricade sui supervisori umani. Qual è il limite accettabile per l’autonomia di questi strumenti?

  3. Simone De Rosa

    L’uso non dichiarato dell’IA in un lavoro di consulenza così delicato solleva interrogativi seri sulla trasparenza. Se un report non è verificato da esperti umani, come possiamo fidarci dei risultati? La tecnologia dovrebbe supportare, non sostituire, il giudizio professionale.

    1. Luciano Fiore

      Ottimo punto, Simone. La supervisione umana è la chiave, senza quella si rischia di prendere lucciole per lanterne, non credi?

    2. Benedetta Donati

      Scontato che un’IA produca sciocchezze senza controllo. La consulenza seria richiede cervelli, non algoritmi da quattro soldi.

  4. Daniele Palmieri

    Ecco, la solita storia. Si affida tutto alle macchine, poi ci si stupisce se producono fuffa. La vera consulenza, quella fatta con cervello, non con un algoritmo, sembra ormai un lontano ricordo. Cos’altro ci inventeranno per risparmiare?

  5. Walter Benedetti

    Certo, capisco. Se l’intelligenza artificiale viene usata senza la dovuta supervisione umana, questi inconvenienti possono capitare. È un po’ come dare le chiavi della macchina a un bambino, no? Bisogna sempre controllare bene.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ricevi i migliori aggiornamenti di settore