Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →
Copilot, un assistente da maneggiare con cura: i rischi di errori, fughe di dati e “AI fatigue” dietro l’angolo
L'analista di Gartner Dennis Xu lancia una provocazione: vietare Microsoft Copilot il venerdì pomeriggio. La stanchezza di fine settimana riduce la nostra capacità di revisione critica, aumentando il rischio di errori e fughe di dati sensibili. Un avvertimento che va oltre la semplice email sbagliata, toccando i temi della sicurezza aziendale e dell'affaticamento cognitivo indotto dall'IA.
Occhio a usare Copilot il venerdì pomeriggio: non è uno scherzo
È venerdì, sono le quattro del pomeriggio. La settimana è stata un massacro, la testa è già proiettata verso il weekend e tu hai solo un obiettivo: chiudere tutto e scappare.
Proprio in quel momento, devi mandare una mail importante e usi Copilot per velocizzare. L’IA ti sforna un testo, tu gli dai un’occhiata veloce e premi “invia”.
Peccato che, nella fretta, non ti sei accorto che il tono era sbagliato, o peggio, che conteneva un’informazione inappropriata.
Questa non è una fantasia, ma una preoccupazione molto concreta sollevata da Dennis Xu, un analista di Gartner.
Durante un summit sulla sicurezza, ha lanciato una provocazione: le aziende dovrebbero vietare l’uso di Microsoft Copilot il venerdì pomeriggio.
Come riportato su The Register, il motivo è disarmante nella sua semplicità: a fine settimana siamo tutti più stanchi e meno attenti.
La nostra capacità di revisionare criticamente ciò che un’IA produce cala drasticamente, aumentando il rischio di far passare contenuti “tossici” o culturalmente inadeguati, anche se fattualmente corretti.
Diciamocelo, è un attimo passare da un aiuto a un autogol clamoroso.
E se pensi che il problema si limiti a una mail scritta male, ti sbagli di grosso.
La stanchezza del venerdì è solo la punta di un iceberg molto più grande e insidioso.
Quando l’assistente virtuale fruga dove non dovrebbe
Il punto è che Copilot non si limita a scrivere testi. Per darti risposte pertinenti, scava all’interno dei dati della tua azienda, come i documenti su SharePoint. E qui le cose si complicano.
Xu ha messo in guardia su un rischio enorme: la sovraesposizione di documenti sensibili. Pensa a un file con i dettagli di una riorganizzazione aziendale o informazioni confidenziali sui clienti, salvato in una cartella con permessi di accesso un po’ troppo “allegri”.
Un dipendente fa una domanda generica a Copilot e, senza volerlo, si vede spiattellare informazioni che non avrebbe mai dovuto vedere.
Certo, Microsoft parla di filtri e barriere di sicurezza, ma la realtà è che basta un errore umano nella gestione dei permessi per creare una falla. E non è l’unico pericolo. Si parla anche di attacchi di remote code execution tramite prompt malevoli o di esposizione di dati sensibili quando si collega Copilot ad applicazioni di terze parti.
La questione è che affidiamo a questi strumenti un accesso profondo ai nostri sistemi, ma siamo davvero sicuri di avere il pieno controllo su ciò che vedono e, soprattutto, su ciò che mostrano?
Ma il vero elefante nella stanza non è tanto quello che Copilot può fare di sbagliato a livello tecnico, quanto quello che sta silenziosamente facendo a noi.
L’IA ti rende più produttivo o semplicemente più stanco?
La verità, un po’ scomoda, è che questi strumenti stanno introducendo un nuovo tipo di esaurimento: la cosiddetta “AI fatigue”. Invece di alleggerire il carico, spesso finiscono per aumentare le aspettative di produttività, prosciugando le nostre energie mentali.
E qui la faccenda si fa paradossale.
Una ricerca interna di Microsoft, descritta da Windows Central, ha rivelato due cose piuttosto allarmanti. La prima è che le chatbot IA diventano progressivamente “più stupide” durante conversazioni lunghe. La seconda, ancora più preoccupante, è che un uso eccessivo di strumenti come Copilot rischia di atrofizzare le nostre capacità di pensiero critico.
In pratica, più ci affidiamo all’IA per pensare, meno diventiamo capaci di farlo da soli, e quindi meno abili a giudicare se i suoi risultati siano validi o meno.
La stessa Microsoft sembra essersene accorta, tanto da aver introdotto un avviso che appare dopo un uso prolungato di Copilot: “È ora di una pausa. Copilot è un’IA, ma tu no.” Una mossa che suona quasi come un’ammissione: ti diamo uno strumento potentissimo, ma occhio a non farti prosciugare il cervello.
La proposta, apparentemente scherzosa, di bloccare tutto il venerdì pomeriggio assume così un significato ben diverso: non è una questione di pigrizia, ma di autoconservazione cognitiva.

Dare la colpa allo strumento è facile, come accusare la penna per un errore. Mi chiedo se sono io il primo a fidarmi ciecamente quando la mia batteria mentale è quasi scarica.
@Nicolò Sorrentino La penna è inerte, l’IA è un suggeritore insistente. Quando la mente è una nave senza timoniere, anche un pessimo consiglio sembra una rotta.
Vietare l’IA il venerdì è una scusa per non ammettere che il problema è una cultura del lavoro che ci rende inaffidabili. Forse dovremmo vietare il venerdì pomeriggio a noi stessi, non al software.
@Melissa Negri La cultura del lavoro è un comodo alibi. La responsabilità è individuale. Se non sai governare lo strumento, non dovresti neanche accenderlo.
La stanchezza non è una scusa per affidare il timone a un burattino digitale.
@Carlo Caruso Il “burattino” fa il suo, se poi chi lo guida il venerdì è già fuso è un problema di selezione del personale. Io i miei li pago per restare lucidi almeno fino all’aperitivo.
Vietare uno strumento solo il venerdì mi pare una pezza, non una cura. La questione è la supervisione umana, che manca quando siamo stanchi. Affidarsi a una macchina non risolve la nostra stanchezza, la nasconde. O sto sbagliando qualcosa?
Un capitano stanco non affida il timone a una macchina, dovrebbe riposare prima.
Il problema non è l’assistente IA, è il mio cervello che il venerdì pomeriggio ha già staccato. Ho commesso errori gravi per la stanchezza senza bisogno di delegare, l’idea di affidare una scelta a un algoritmo quando sono così mi terrorizza, perché la responsabilità resta mia.
Davide Fabbro, la responsabilità resta tua solo finché non impari a incolpare l’algoritmo. L’IA è il capro espiatorio ideale per la stanchezza, un’altra trovata delle HR per lavarsene le mani.