Mentre i sindacati si interrogano sui rischi per la privacy e le condizioni di lavoro, le Big Tech firmano contratti milionari con le scuole per profilare gli studenti.
C’è un vecchio adagio nel mondo della tecnologia che dice: “Se non paghi per il prodotto, il prodotto sei tu”. Ma cosa succede quando il prodotto è l’istruzione pubblica e gli utenti sono minorenni costretti in un’aula scolastica?
A quasi tre anni dal rilascio pubblico di ChatGPT, l’innamoramento collettivo per l’intelligenza artificiale generativa nelle scuole sta lasciando il posto a una sbornia burocratica e, fortunatamente, a una sana dose di sospetto sindacale.
Non siamo più nella fase dello stupore per il sonetto scritto da un bot; siamo nella fase in cui si contano i soldi, i dati e, soprattutto, i posti di lavoro.
Se fino a ieri il dibattito pubblico si concentrava quasi esclusivamente sul rischio che gli studenti usassero l’IA per barare nei compiti in classe (una preoccupazione legittima ma tutto sommato banale rispetto alla portata del fenomeno), oggi il fronte si è spostato su questioni ben più strutturali. I sindacati dell’istruzione, da sempre lenti a reagire alle innovazioni tecnologiche, si sono svegliati. E hanno capito che l’IA non è solo uno strumento pedagogico, ma un potenziale cavallo di Troia per la deregolamentazione del lavoro docente e l’estrazione massiva di dati comportamentali.
Il mantra che sta emergendo dalle federazioni globali è semplice quanto potente: “La fiducia non può essere automatizzata”. Sembra uno slogan da campagna pubblicitaria, ma nasconde una rivendicazione sindacale feroce. L’idea è che l’educazione sia una relazione umana basata sulla fiducia, e che delegare questa relazione a un algoritmo “black box” non sia solo pedagogicamente rischioso, ma politicamente inaccettabile.
Eppure, mentre i sindacati alzano le barricate, i giganti della Silicon Valley stanno già firmando contratti milionari con i distretti scolastici.
Chi vincerà? E soprattutto, chi sta controllando cosa succede ai dati dei nostri figli mentre gli adulti litigano?
Il business della profilazione precoce
Dobbiamo essere onesti: l’interesse delle Big Tech per la scuola non è filantropia.
È un investimento a lungo termine.
Inserire un ecosistema proprietario in una scuola significa fidelizzare un utente per la vita, ma soprattutto significa avere accesso a un flusso costante di dati “freschi”. Non parliamo solo di voti o presenze, ma di metadati comportamentali: tempi di reazione, livelli di attenzione, pattern di apprendimento e, in alcuni casi inquietanti, analisi delle emozioni tramite webcam.
Qui sorge il primo grande problema di privacy, che spesso viene liquidato con un’alzata di spalle e una firma distratta su un modulo di consenso. Il GDPR in Europa offre tutele teoriche forti, ma la pratica quotidiana vede scuole sotto-finanziate affidarsi a piattaforme “gratuite” o a basso costo che, nei termini di servizio scritti in piccolo, si riservano diritti di utilizzo dei dati per “migliorare il servizio”.
Tradotto dal legalese: addestrare i loro modelli sui compiti dei vostri figli.
La preoccupazione non è isolata a pochi tecnofobi. Secondo un’analisi recente che ha coinvolto educatori e genitori a livello globale, il 71% degli intervistati si dichiara preoccupato per i rischi dell’IA negli ambienti di apprendimento, segnalando una frattura evidente tra l’entusiasmo dei vendor tecnologici e la realtà di chi vive la scuola ogni giorno.
Se l’istruzione diventa un servizio erogato da un algoritmo, chi possiede la conoscenza generata? Se un sistema di IA “personalizza” il percorso di uno studente, sta ottimizzando per il suo sviluppo culturale o per massimizzare il tempo speso sulla piattaforma? La risposta a queste domande determina se stiamo formando cittadini o consumatori.
E i sindacati, tardivamente ma giustamente, hanno iniziato a capire che se non si siedono al tavolo delle trattative ora, il menù sarà deciso altrove.
L’Education International (EI), la federazione globale dei sindacati degli insegnanti, ha messo nero su bianco questa posizione. Non si tratta di luddismo, ma di riaffermare il controllo democratico sull’istruzione.
La fiducia non può essere automatizzata: i sindacati dell’istruzione plasmano il futuro dell’IA.
— Education International (EI)
Strani compagni di letto
Tuttavia, il panorama non è fatto solo di scontro frontale. C’è una zona grigia, molto più interessante e pericolosa, dove la critica si mescola alla collaborazione. Prendiamo il caso degli Stati Uniti, che spesso anticipano le tendenze europee di qualche anno. Mentre da un lato si tuona contro i rischi dell’automazione, dall’altro si stringono accordi proprio con chi quell’automazione la vende.
È il caso dell’American Federation of Teachers (AFT), che ha stretto una partnership con OpenAI. L’obiettivo dichiarato è nobile: formare gli insegnanti, evitare che la tecnologia venga subita passivamente, creare linee guida etiche. Ma c’è un conflitto di interessi grande come una casa. Come può un sindacato essere un controllore imparziale se siede nel consiglio consultivo dell’azienda che sta cercando di regolare?
In questo scenario, OpenAI sostiene pubblicamente la formazione sindacale tramite la partnership con l’American Federation of Teachers, posizionandosi abilmente non come il nemico che vuole sostituire i docenti, ma come l’alleato indispensabile per “potenziarli”. È una strategia di PR magistrale: cooptare la critica per neutralizzarla.
Se i sindacati diventano partner nella “implementazione responsabile”, sarà molto più difficile per loro opporsi quando l’implementazione diventerà invasiva.
Il rischio è che queste partnership servano a legittimare l’ingresso di strumenti opachi nelle aule, con il bollino di approvazione sindacale che funge da foglia di fico per le preoccupazioni sulla privacy. “Non preoccupatevi, l’ha approvato il sindacato” potrebbe diventare la scusa perfetta per bypassare valutazioni d’impatto sulla protezione dei dati rigorose. E mentre si discute di come usare ChatGPT per fare i piani di lezione, si perde di vista l’elefante nella stanza: l’infrastruttura.
Chi controlla i server? Dove vanno i dati? Chi ha le chiavi crittografiche?
Il docente sotto l’algoritmo
C’è poi l’aspetto più cupo, quello che riguarda direttamente le condizioni di lavoro. L’IA nell’istruzione non serve solo a “aiutare” gli studenti; è uno strumento formidabile di algorithmic management, ovvero la gestione algoritmica dei lavoratori. Se un software è in grado di valutare i compiti degli studenti, è matematicamente in grado di valutare le performance dell’insegnante in base ai risultati della classe, ai tempi di risposta, all’aderenza al programma digitale.
Immaginate un preside che non entra mai in classe, ma che ha un dashboard che gli dice che il Prof. Rossi è “meno efficiente del 12%” rispetto alla media dell’istituto perché i suoi studenti interagiscono meno con il tablet.
È uno scenario distopico?
Forse, ma le tecnologie per realizzarlo sono già qui, pronte all’uso. È la “uberizzazione” dell’insegnamento: parcellizzare il lavoro, misurarlo costantemente e ottimizzarlo per metriche che nulla hanno a che fare con la pedagogia.
È proprio su questo fronte che la battaglia si fa più dura. Non è un caso che i sindacati dei docenti universitari stiano cercando linee guida contrattuali sull’IA, chiedendo tutele esplicite contro l’uso di sistemi automatizzati per decisioni relative a assunzioni, valutazioni o licenziamenti. La richiesta è chiara: nessun algoritmo deve avere l’ultima parola sulla carriera di un essere umano.
Come sottolinea un rapporto del New Design Congress, il problema è la responsabilità. In un sistema automatizzato, quando qualcosa va storto, che sia una discriminazione, un errore di valutazione o una violazione della privacy, la colpa si diluisce nel codice.
In ambienti in cui l’identità determina l’accesso, la fiducia non può essere automatizzata. Deve sempre esserci qualcuno con cui parlare, qualcuno con l’autorità di rimediare quando le cose vanno male.
— New Design Congress
Questa necessità di un “human in the loop” (un umano nel ciclo decisionale) non è solo una questione etica, è una questione di potere. Rimuovere l’umano significa rimuovere la possibilità di appello, di contesto, di empatia. Significa trasformare la scuola in una catena di montaggio digitale dove l’eccezione è un errore di sistema da correggere, non una peculiarità da valorizzare.
Siamo di fronte a un bivio.
Da una parte c’è una visione dell’istruzione come prodotto scalabile, efficiente e guidato dai dati, dove le Big Tech forniscono l’infrastruttura e dettano le regole del gioco. Dall’altra c’è la resistenza di chi ricorda che educare significa formare coscienze critiche, non addestrare reti neurali.
La domanda non è se l’IA entrerà nelle scuole, perché c’è già. Ma se ci entrerà come strumento al servizio della comunità scolastica o come padrone silenzioso delle sue dinamiche più intime. E guardando i bilanci delle aziende tech e la fatica dei regolatori, viene da chiedersi: siamo sicuri che la “fiducia” sia una valuta che ha ancora corso legale in questo mercato?

I sindacati scoprono l’acqua calda. Intanto le Big Tech hanno già schedato il futuro. Dormite sonni tranquilli, mi raccomando.
Che tenerezza questo tardivo sospetto sindacale, mentre le Big Tech preparano la prossima generazione di consumatori profilati fin dalle elementari. Qualcuno pensava sul serio che il loro scopo fosse l’istruzione?
Stiamo barattando il futuro dei ragazzi per qualche specchietto digitale. La loro mente diventa un prodotto da scaffale. Un baratto conveniente, ma solo per chi vende gli specchietti. Quando inizieremo a proteggere i loro sogni prima che vengano imbottigliati?
Trasformare gli studenti in profili di dati è il capolavoro pedagogico del decennio, una formazione al consumismo impeccabile; la mia fiducia nel progresso vacilla.
Francesco Messina, è affiliate marketing per l’istruzione. Qual è la mia commissione?
Francesco, la sua fiducia era mal riposta fin dall’inizio. Il progresso non è pedagogia, è mercato. Proteggere i dati è un’illusione sentimentale per chi ignora l’economia.