Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →
La “persona prompting” e i suoi rischi: quando l’accuratezza dei fatti viene sacrificata sull’altare dello stile e del tono autorevole.
L'abitudine di istruire l'IA a comportarsi da esperto, nota come persona prompting, si rivela un'arma a doppio taglio. Una ricerca peer-reviewed dimostra che, sebbene migliori lo stile, questa tecnica compromette l'accuratezza fattuale. L'IA, concentrandosi sull'interpretare un ruolo, sacrifica la veridicità delle informazioni, un rischio che professionisti e aziende non possono più permettersi di ignorare.
Il prompt “Sei un esperto” può rendere l’IA meno intelligente?
Quante volte hai iniziato una conversazione con un’IA dicendo “Comportati come un esperto di SEO” o “Sei un data analyst con 20 anni di esperienza”?
È una pratica talmente diffusa da essere diventata quasi un automatismo, un trucco del mestiere che tutti danno per scontato. L’idea di fondo è semplice: se tratti l’IA come un esperto, ti risponderà come un esperto.
Peccato che, a quanto pare, le cose non stiano proprio così.
Anzi, potremmo aver preso un granchio colossale.
Una nuova ricerca peer-reviewed ha scoperchiato una verità scomoda: questa tecnica, nota come persona prompting, può seriamente compromettere l’accuratezza fattuale delle risposte, pur migliorandone lo stile e il tono.
In pratica, mentre siamo tutti contenti di ottenere un testo più forbito e autorevole, l’IA potrebbe starci rifilando informazioni sbagliate con una sicurezza disarmante.
La ricerca dimostra che l’efficacia di questo approccio dipende drasticamente dal tipo di compito che le affidiamo. Per compiti legati alla scrittura, alla creatività o al roleplay, assegnare un ruolo da esperto funziona alla grande, migliorando la qualità e l’aderenza al tono richiesto. Il problema, e bello grosso, emerge quando si entra nel campo dei fatti, dei dati e delle analisi tecniche.
Ma perché un’istruzione che sembra così logica finisce per sabotare proprio l’aspetto più delicato, cioè la verità di ciò che viene detto?
Il paradosso dell’obbedienza: più l’IA suona bene, più rischia di sbagliare
Il meccanismo dietro questo strano fenomeno è un vero e proprio paradosso.
Quando chiediamo a un modello linguistico di impersonare un esperto, questo non attiva una modalità di “recupero informazioni potenziata”, come ingenuamente potremmo pensare. Al contrario, entra in quella che i ricercatori chiamano “modalità di esecuzione delle istruzioni”.
Il suo obiettivo primario non è più trovare l’informazione corretta, ma suonare autorevole e convincente, esattamente come gli abbiamo chiesto di fare. L’IA si concentra sulla forma, sullo stile, sul gergo da specialista, mettendo in secondo piano la sostanza.
Questo effetto diventa ancora più marcato quando si aggiungono dettagli specifici alla persona, come “Sei un professore di Harvard con un PhD in fisica quantistica”. Più le credenziali sono elaborate, più il modello si impegna a imitare il tono di quel ruolo, e più si allontana dalla sua capacità di accedere e riportare i fatti in modo accurato.
È come se, per interpretare la parte, si dimenticasse le battute giuste.
E la cosa più preoccupante è che i modelli più vulnerabili a questo tranello sono proprio quelli addestrati per essere più “controllabili” e seguire meglio le istruzioni.
Esatto.
I sistemi che le grandi aziende ci vendono come i più avanzati e “pilotabili” sono quelli che, paradossalmente, soffrono i cali di accuratezza più drastici quando gli si assegna un ruolo.
Il che solleva un dubbio non da poco sulla direzione che sta prendendo lo sviluppo di queste tecnologie.
Un campanello d’allarme per chi usa l’IA ogni giorno
Cosa significa tutto questo per chi, come noi, usa l’intelligenza artificiale per creare contenuti, fare analisi o supportare decisioni strategiche?
Significa che la pratica di usare i persona prompt come un passepartout per ogni attività è un rischio nascosto che non possiamo più ignorare. Continuare a farlo indiscriminatamente è come chiedere a un attore di fare un intervento a cuore aperto solo perché sa recitare bene la parte del chirurgo.
Le implicazioni sono dirette.
Per la creazione di contenuti, come la stesura di bozze o la definizione di un tono di voce, assegnare una persona può ancora avere senso per ottenere un primo risultato stilisticamente valido. Ma nel momento in cui la posta in gioco è la correttezza di un dato, la validazione di una fonte o l’analisi di statistiche, questa pratica va abbandonata. Per compiti che richiedono precisione assoluta, è meglio usare prompt neutri e diretti, concentrandosi sulla richiesta e non sul ruolo dell’interlocutore artificiale.
Questa ricerca non è un caso isolato.
Si inserisce in un filone di studi sempre più critico su come i prompt influenzano il comportamento dei modelli.
È evidente che affidarsi ciecamente a “trucchi” e “scorciatoie” senza comprendere a fondo le dinamiche interne di questi sistemi è un approccio che sta mostrando tutte le sue crepe. Forse è arrivato il momento di smettere di cercare la formula magica e iniziare a usare questi strumenti con più consapevolezza e, perché no, con un sano scetticismo.

Chiamiamola pigrizia intellettuale, non debolezza. Si delega il pensiero a una macchina che imita i peggiori consulenti umani, quelli con più carisma che sostanza, e poi ci si sorprende. Alla fine abbiamo solo lo strumento che ci meritiamo, no?
Si preferisce una menzogna ben recitata alla verità. Una debolezza molto umana.
@Melissa Romano La debolezza è preferire il bel suono di un guscio vuoto?
@Walter Benedetti Direi che è la debolezza di chi non vuole fare la fatica di pensare. La forma autorevole ci culla e ci rassicura. Preferiamo una bugia ben confezionata a una verità che richiede impegno, un autoinganno diventato fin troppo comodo.
Ci piace l’attore che fa il medico. Poi però moriamo per la diagnosi sbagliata.
@Riccardo De Luca, il tuo paragone è perfetto. È come chiedere all’IA di fare il copywriter per Amazon e poi ti scrive che un tostapane fa pure il caffè. Una fatica boia dover poi sistemare i danni e le aspettative deluse dei clienti.
Dare una maschera a un pappagallo non lo rende un oratore. Si scambia l’eloquenza per la verità, un errore da principianti. Il dato resta l’unica ancora di salvezza, tutto il resto è solo teatro per ingenui.
La vernice dell’autorevolezza copre crepe strutturali, un trucco vecchio quanto il marketing. Stiamo solo delegando la mano di vernice a un automa più veloce.
Antonio Romano, aspettarsi che una maschera ti dia la competenza è da dilettanti. Noi non deleghiamo la vernice, costruiamo un’impalcatura di dati solidi. Il resto è teatro per chi non sa come si vince davvero.
Mio dio. In agenzia lo facciamo sempre. Chissà quanta fuffa abbiamo prodotto per i clienti. Questa cosa mi mette una paura tremenda.
@Angela Ferrari La consapevolezza è il primo passo. Almeno la nostra fuffa era elegante.
Si scopre che vestire un manichino da medico non gli conferisce una laurea. L’umanità celebra lo specchio che lusinga invece di riflettere, delegando il pensiero a un abile imitatore. Che fine gloriosa ci attende.
@Fabio Fontana Il manichino è la scorciatoia che l’ego aziendale desidera. Produce report rassicuranti, non analisi veritiere. Una delega del pensiero che si paga, letteralmente, al primo bilancio in rosso. Quale sarà il prossimo idolo di silicio da venerare?
Ci fidiamo di un’eco ben vestita per pilotare la nave. Affonderemo con grande stile.
Questa scoperta mi sembra ovvia. Chiedere a un’IA di recitare è da principianti, è come dare un bisturi a un macellaio sperando in un’operazione a cuore aperto. I professionisti usano questi strumenti per il dato grezzo, non per il teatro. Chi non distingue la funzione dalla forma è già fuori mercato.
@Veronica Valentini Applaudiamo il burattino con la voce suadente. La colpa è del nostro orecchio.
Stiamo affidando decisioni aziendali a un attore mediocre che recita la parte dell’esperto. È un progresso notevole, non c’è che dire. La nostra crescente dipendenza da queste illusioni mi lascia sinceramente perplesso.
È come lucidare una mela marcia: la superficie brilla di competenza, ma dentro la verità è andata a male. Questa corsa a un’apparenza autorevole ci lascia con strumenti che ci ingannano con eleganza, facendoci sentire inadeguati. Mi chiedo quanto di ciò che crediamo solido sia fumo.
@Davide Russo Non è che ci ingannano, è che compriamo volentieri il servizio di auto-inganno. È il sogno di ogni creatore di contenuti: un assistente che produce fuffa autorevole su richiesta, senza neanche il disturbo di doverci credere per primo.