SEO Confidential – La nostra intervista esclusiva ad Andrea Daniele Signorelli: il lato oscuro della rivoluzione IA

Dalla bolla IA al declino del traffico organico, Andrea ci dice la sua sulle contraddizioni di un’innovazione che rischia di svuotare il web e indebolire il pensiero critico

Premi play e ascolta l’intervista in pillole

Che cosa resta dell’open web, ora che l’intelligenza artificiale sta cambiando il modo in cui cerchiamo, leggiamo e perfino pensiamo? È la domanda al centro della nostra nuova intervista di SEO Confidential, con un ospite d’eccezione: Andrea Daniele Signorelli, giornalista che da anni indaga il rapporto tra tecnologia, politica e società, firma di Wired e La Repubblica.

Con lui abbiamo parlato della bolla dell’intelligenza artificiale che cresce a ritmi vertiginosi, di un web sempre più popolato da macchine invece che da persone, e di un giornalismo che rischia di confondere l’efficienza con la qualità.

Signorelli ci accompagna dentro la retorica del “progresso inevitabile” per mostrarci cosa c’è davvero dietro: capitali enormi, dipendenze tecnologiche e un futuro che, se non governato, potrebbe allontanarci dalla conoscenza invece di avvicinarci a essa.

Un dialogo lucido e stimolante, che mette in discussione la fede cieca nell’automazione e ci invita a ripensare il ruolo umano nel tempo delle macchine.

Andrea Daniele Signorelli intervistato da Roberto Serra
Andrea Daniele Signorelli

“Le IA che oggi si nutrono del web rischiano di prosciugarlo”: la versione di Andrea D. Signorelli

Hai scritto che le stesse aziende che guidano lo sviluppo dell’intelligenza artificiale stanno alimentando una bolla economica di proporzioni gigantesche, pur essendo consapevoli dei rischi che comporta.

Secondo te, questa “ipertrofia finanziaria” nasce più da una fede quasi ideologica nel progresso tecnologico o dalla logica del capitalismo delle piattaforme, che impone di investire anche in assenza di ritorni reali?

E, se davvero la bolla dovesse scoppiare, quali potrebbero esserne gli effetti concreti sul settore tecnologico e sull’economia globale?

Non è la prima volta che assistiamo a un fenomeno di questo tipo: investimenti colossali che attraversano una fase di euforia finanziaria, a volte sfociando in una bolla, e che solo in seguito dimostrano il loro reale valore. È accaduto con la bolla delle dot-com alla fine degli anni ’90: dopo il crollo, le tecnologie che ne erano alla base – internet e il web – hanno continuato a evolversi fino a generare ritorni enormi per gli investitori e a trasformare l’economia mondiale.

Per questo motivo, il fatto che oggi si stia formando una bolla intorno all’intelligenza artificiale non significa che la tecnologia sia destinata al fallimento. È plausibile però che l’attuale fase di investimento non riesca a ripagare, almeno nel breve periodo, le somme enormi che vengono stanziate.

Ci sono due motivi principali. Il primo riguarda i costi. A differenza delle precedenti piattaforme digitali, i modelli di intelligenza artificiale generativa richiedono risorse economiche gigantesche, non solo per l’addestramento, ma anche per il mantenimento e l’utilizzo quotidiano. Si parla di cifre astronomiche: perfino OpenAI, nonostante il successo di ChatGPT, starebbe operando in perdita, con stime che indicano un bilancio negativo di circa 27 miliardi di dollari. Nessuna azienda può sostenere a lungo un simile livello di spesa, ed è per questo che i grandi player del settore devono periodicamente tornare a chiedere nuovi capitali agli investitori.

Il secondo motivo è di natura più ideologica e riguarda la narrazione che sostiene questo boom. Le big tech continuano a presentare l’intelligenza artificiale come una tecnologia dirompente, al punto da far credere che dietro l’angolo ci sia la cosiddetta AGI, l’intelligenza artificiale generale in grado di eguagliare o superare l’uomo. Questa promessa funziona come una leva per attirare capitali, perché lascia intendere che, quando e se l’AGI diventerà realtà, gli investimenti attuali verranno ampiamente ripagati. Tuttavia, è molto probabile che questa prospettiva resti più vicina alla fantascienza che alla scienza.

In sostanza, ci troviamo di fronte a un intreccio tra speculazione e ideologia. Da un lato, la bolla finanziaria è una tappa ricorrente nel capitalismo tecnologico: ogni nuova ondata d’innovazione richiede capitali enormi e spesso attraversa una fase di eccesso prima di stabilizzarsi. Dall’altro lato, però, non esiste alcuna garanzia che tutti questi investimenti si traducano in ritorni concreti.

Quindi sì, la bolla c’è, ed è alimentata da una combinazione di fede tecnologica e pressione sistemica del capitalismo delle piattaforme, che impone di investire sempre, anche in assenza di ritorni immediati. È una dinamica tipica del capitalismo tecnologico, dove l’innovazione richiede capitali enormi e spesso passa attraverso fasi speculative.

Se la bolla dovesse scoppiare, gli effetti sarebbero pesanti. Potremmo assistere a una forte correzione del mercato, a una riduzione drastica degli investimenti e a un consolidamento del settore intorno a pochi attori solidi. Nvidia, per esempio, oggi è l’unica a generare profitti reali grazie al boom dell’AI, ma è anche quella più esposta: se i grandi acquirenti smettessero di comprare GPU, il suo valore potrebbe precipitare, trascinando con sé l’intero comparto tecnologico.

Detto questo, il collasso della bolla non segnerebbe la fine dell’intelligenza artificiale. Proprio come accadde con internet dopo il 2000, la tecnologia continuerebbe a svilupparsi su basi più sostenibili, con applicazioni più concrete e meno dipendenti dalla retorica del “progresso inevitabile”.

Pensi che l’intelligenza artificiale, se utilizzata in modo passivo o eccessivo, rischi alla lunga di impoverirci dal punto di vista cognitivo, rendendoci meno curiosi, meno creativi e in generale meno intelligenti?

Quali potrebbero essere, secondo te, le strategie o le abitudini concrete per sviluppare un uso più “intelligente” di ChatGPT, che stimoli invece di atrofizzare il pensiero critico?

Sì, penso che un uso eccessivo o passivo dell’intelligenza artificiale possa effettivamente avere conseguenze negative dal punto di vista cognitivo. Alcuni studi del MIT lo hanno già dimostrato: le persone che scrivono testi usando ChatGPT mostrano una minore attivazione cerebrale. Ma, se si guarda da vicino, non è una scoperta sorprendente. In molti casi, gli utenti a cui veniva chiesto di scrivere un elaborato – per esempio sulla Rivoluzione francese – si limitavano a digitare un prompt e poi lasciavano che ChatGPT facesse tutto il lavoro. È normale che, in situazioni del genere, l’attività mentale si riduca al minimo.

Credo però che la questione non sia lo strumento in sé, ma come lo si utilizza. Se usato nel modo giusto, ChatGPT può diventare un vero strumento di potenziamento cognitivo. Noi abbiamo lo spirito critico, la capacità di definire obiettivi, di valutare pro e contro, di dare senso alle informazioni. L’intelligenza artificiale, invece, è in grado di elaborare enormi quantità di dati in pochissimo tempo. Se si combinano queste due dimensioni, i risultati possono essere straordinari.

Il problema nasce quando deleghiamo tutto. Se lasciamo che l’AI pensi al posto nostro, inevitabilmente finiamo per atrofizzare le nostre capacità critiche. Ma se la usiamo per ampliare le nostre possibilità, per fare ricerca, per esplorare nuove idee, allora il livello cognitivo non solo si mantiene, ma può perfino crescere.

Credo che succederà ciò che abbiamo già visto con altre tecnologie: si formerà una minoranza di persone capaci di sfruttare al massimo le potenzialità dell’intelligenza artificiale, e una maggioranza che invece ne farà un uso passivo. È accaduto con il web, poi con i social, e ora probabilmente succederà anche con ChatGPT. Le potenzialità sono enormi, ma non bastano da sole: serve un’alfabetizzazione digitale e culturale che permetta alle persone di capire come usare l’intelligenza artificiale per pensare di più, non di meno.

Hai scritto che l’intelligenza artificiale non è di per sé nemica del giornalismo, ma che il vero problema è il modo in cui viene usata per tagliare i costi e sostituire il lavoro umano.

Pensi che questa tendenza sia ancora reversibile o il modello economico dei grandi gruppi editoriali è ormai troppo dipendente dalla logica dell’automazione e della quantità a scapito della qualità?

L’AI diventa un problema per il giornalismo quando viene impiegata per tagliare i costi, ridurre il personale e sostituire il lavoro umano invece di affiancarlo.

L’episodio del giornalista de La Provincia che ha dimenticato di rimuovere la tipica frase generata da ChatGPT “Vuoi che lo trasformi in un articolo da pubblicare su un quotidiano o in una versione più narrativa da magazine d’inchiesta?”, è un esempio perfetto.

Quella svista non è solo frutto di superficialità individuale, ma nasce da un contesto di lavoro sempre più frenetico, con redazioni ridotte all’osso, stipendi bassi e carichi di lavoro insostenibili. Oggi due o tre redattori fanno quello che una volta facevano in dieci, ed è inevitabile che, in condizioni del genere, si finisca per usare l’AI come scorciatoia.

Il problema, quindi, non è lo strumento in sé, ma le condizioni in cui viene impiegato. Se l’intelligenza artificiale serve solo a velocizzare la produzione e ridurre i costi, la qualità dell’informazione crolla. Se invece viene usata per supportare i giornalisti, per analizzare dati, per semplificare il lavoro di ricerca o di scrittura, può diventare un alleato potente.

Rispondendo alla tua domanda: sì, penso che questa tendenza sia ancora reversibile. O meglio, penso che proprio l’abuso dell’automazione e la conseguente perdita di qualità potrebbero, paradossalmente, aprire uno spazio nuovo per un giornalismo “umano”, più accurato e consapevole. Se la saturazione di contenuti “evitabili” dovesse diventare insostenibile, il pubblico potrebbe tornare a cercare informazione di qualità. È una prospettiva forse un po’ ottimistica, ma realistica: quando si tira troppo la corda, prima o poi si spezza, e da quella rottura può nascere un cambiamento.

Anche il mondo dei social network ne offre un esempio: per anni abbiamo assistito a una produzione compulsiva di contenuti di scarsa qualità. Ora, però, cresce una domanda per forme di informazione più curate, più lente e più affidabili. È possibile che anche nel giornalismo accada qualcosa di simile: che il pubblico cominci a premiare la competenza, la verifica e il pensiero critico.

Sam Altman ha detto che se un’intelligenza artificiale può sostituire il tuo lavoro, forse quel lavoro non era “vero lavoro”. È una frase brutale, certo, ma contiene un fondo di verità? Può essere uno stimolo a migliorare, a differenziarsi, a sviluppare competenze creative che le macchine non possono replicare?

La sostituzione del lavoro umano con l’AI non avviene perché quelle mansioni sono davvero superflue, ma perché si vogliono abbattere i costi e massimizzare i profitti. In realtà, i risultati migliori arrivano quando la tecnologia affianca le persone, non quando le rimpiazza. Se le redazioni investissero per formare i giornalisti all’uso intelligente di questi strumenti, la qualità del lavoro migliorerebbe invece di peggiorare.

C’è anche chi sostiene che un futuro di automazione spinta dovrebbe andare di pari passo con strumenti di tutela sociale, come il reddito universale. Non è un caso che molti leader della Silicon Valley lo promuovano (Elon Musk in primis)…

Non lo fanno per altruismo, ma per puro calcolo: sanno bene che l’automazione su larga scala rischia di generare disoccupazione e tensioni sociali, e vedono nel reddito universale una sorta di assicurazione preventiva contro una possibile “rivolta sociale dei sostituiti”.

È una visione piuttosto cinica, perché di fatto serve più a proteggere il sistema economico che le persone. Ma dice molto sul mondo che stiamo costruendo: un mondo in cui si accetta l’idea che milioni di posti di lavoro possano sparire, purché venga garantito un minimo sostegno a chi resta indietro.

I test usati per valutare l’intelligenza delle IA, i cosiddetti benchmark, servono davvero a capire quanto un modello è “intelligente”? O rischiano di diventare solo una gara a chi ottiene il punteggio più alto, senza dire nulla sulla reale capacità di ragionare o comprendere ciò che fa?

In realtà, i benchmark servono fino a un certo punto. Sì, possono misurare alcune capacità dei modelli, ma non la loro “intelligenza”, semplicemente perché l’intelligenza, nel senso umano del termine, non c’è. Quello che misurano è la performance: la capacità di un modello di superare un test o di ottenere il punteggio più alto, un po’ come una gara di matematica.

Il problema è che ormai molti di questi test sono diventati proprio questo: una competizione a chi fa il miglior punteggio, senza dire molto sulla reale capacità di ragionamento o di comprensione del modello. Spesso, anzi, si è scoperto che i risultati migliori derivano da trucchi più che da vera “intelligenza”.

Ci sono stati casi in cui i modelli hanno ottenuto punteggi altissimi in alcuni benchmark molto noti, ma poi si è capito che trovavano le risposte cercandole online, nei set di dati su cui erano stati addestrati. In pratica, copiavano le soluzioni già presenti sul web. È come se in una gara di matematica qualcuno, invece di fare i calcoli, cercasse su Google il risultato dell’esercizio.

Questo non significa che i benchmark siano inutili, ma che andrebbero ripensati. Servono test più trasparenti, con parametri chiari e condivisi, che misurino davvero la capacità di ragionare e non solo quella di riprodurre risposte già viste. Anche perché molti benchmark oggi in uso si basano su informazioni contenute nei dataset di addestramento dei modelli: se ChatGPT ottiene un punteggio altissimo su un test di cultura generale, non significa che “sa” qualcosa, ma solo che ha già letto quelle informazioni.

Insomma, i benchmark restano strumenti utili, ma andrebbero riformulati per capire davvero come e quanto questi sistemi comprendano ciò che fanno, invece di limitarsi a valutare chi raggiunge il punteggio più alto.

Con l’avvento dei motori di ricerca basati sull’intelligenza artificiale, la ricerca online sembra trasformarsi da esplorazione a semplice consumo di risposte già pronte.

Pensi che questa evoluzione rischi di ridurre la nostra capacità di confronto critico con le fonti, o può invece portarci verso un nuovo modo – più consapevole – di cercare e interpretare le informazioni?

Sì, questa trasformazione della ricerca online è preoccupante, per almeno due ragioni. La prima riguarda la perdita di autonomia. Fino a poco tempo fa, anche se Google influenzava il modo in cui accedevamo alle informazioni, restava comunque una certa libertà di scelta. Davanti ai risultati, potevamo decidere a quali link affidarci, preferire una testata piuttosto che un’altra, scegliere in base alla nostra sensibilità o fiducia nella fonte. Oggi, invece, con i motori di ricerca basati sull’intelligenza artificiale, quella pluralità scompare: ci viene fornita una sola risposta, già pronta, formulata in linguaggio naturale.

E come era prevedibile, quasi nessuno va più a controllare le fonti originali. Dove prima c’era una selezione, adesso c’è una delega totale. Questo concentra un potere informativo enorme nelle mani di pochissimi attori, che diventano i nuovi “filtri” della conoscenza. È un cambiamento radicale, perché rischia di ridurre il nostro rapporto critico con le informazioni e di trasformarci da lettori attivi a consumatori passivi di risposte.

Il secondo problema riguarda la sostenibilità dell’intero ecosistema dell’open web. Finora è esistito un equilibrio: i siti producevano contenuti che Google indicizzava, e in cambio ricevevano traffico e visibilità. Con le risposte generate direttamente dai modelli di AI, questo patto si rompe: Google e le altre aziende traggono valore dai contenuti altrui senza più restituire nulla. È un rischio enorme, perché se i siti smettono di ricevere visite, molti non avranno più motivo né risorse per produrre informazione di qualità.

Qualche accordo comincia a esserci, come quello tra OpenAI e il New York Times, o altre intese tra grandi editori e piattaforme, ma resta il problema dei piccoli siti, dei blog indipendenti, di chi scrive per passione o con modesti ritorni economici. Se il loro lavoro non viene più visto, finiranno per smettere di pubblicare. E senza di loro, anche i grandi sistemi di intelligenza artificiale avranno sempre meno materiale aggiornato e affidabile da cui attingere. È un paradosso evidente: le AI che oggi “si nutrono” del web rischiano di prosciugarlo.

Detto questo, qualche possibile soluzione esiste. Alcune aziende stanno sperimentando sistemi per impedire lo scraping dei contenuti, o modelli di compensazione automatica basati su blockchain, che potrebbero riconoscere un micro-pagamento ogni volta che un testo viene utilizzato da un modello di AI. Sono ipotesi ancora in fase iniziale, ma vanno nella direzione giusta: ristabilire un equilibrio tra chi produce informazione e chi la utilizza per addestrare sistemi che, di fatto, da quella informazione traggono valore economico.

Tra i nuovi motori di ricerca basati sull’IA – da ChatGPT Search a Perplexity, fino a Komo e Brave – quali ritieni offrano oggi l’esperienza di ricerca più affidabile e utile per chi cerca informazioni di qualità, e in base a quali criteri andrebbe valutata questa “qualità” nell’era delle risposte generate dall’IA?

È difficile dare una risposta univoca, perché l’esperienza di ricerca con questi nuovi strumenti è molto soggettiva: dipende da cosa si cerca e da come si è abituati a usare il web. Detto questo, tra i vari motori di ricerca basati sull’intelligenza artificiale, Perplexity è probabilmente quello che finora ha mostrato i risultati migliori. È progettato proprio per la ricerca, e ha un approccio più trasparente, perché mostra le fonti, cita i siti da cui trae le informazioni e permette di approfondire con un click.

Detto ciò, il vantaggio di Google resta enorme. Nel momento in cui integra l’intelligenza artificiale nei propri risultati, come sta già facendo, per Perplexity e gli altri sarà molto difficile ritagliarsi uno spazio. Google parte da una posizione di dominio totale e dispone di infrastrutture e risorse che nessun concorrente può eguagliare. Per questo è probabile che molti di questi motori “alternativi” restino di nicchia o vengano assorbiti da aziende più grandi.

C’è poi un’altra questione: al di là del nome o dell’interfaccia, le differenze tra un modello e l’altro non sono così profonde. Cambiano i toni, le funzioni marginali, ma la logica di fondo è la stessa: rispondere all’utente in linguaggio naturale, riducendo al minimo il passaggio attraverso le fonti. È anche per questo che, a lungo andare, non ha molto senso che esistano decine di strumenti che fanno la stessa cosa. Molti di questi progetti non sono economicamente sostenibili, perché il mercato degli utenti paganti è ancora minuscolo.

Forse alcune di queste startup sopravvivranno proprio perché finanziate dai grandi gruppi tecnologici, che preferiscono tenerle in vita per osservare da vicino le loro innovazioni o per stimolare Google ad accelerare i propri sviluppi. È un modo per mantenere il settore in fermento, ma anche per testare idee che, se funzionano, verranno inglobate dai colossi.

Quanto alla “qualità” della ricerca, credo che vada misurata in base a tre criteri: trasparenza delle fonti, capacità di contestualizzare le informazioni e possibilità per l’utente di verificare ciò che legge. Se un motore di ricerca basato sull’AI riesce a garantire questi tre elementi, allora può davvero migliorare il modo in cui cerchiamo e comprendiamo le informazioni.

Mistral AI viene spesso descritta come l’unica vera risposta europea al dominio americano e cinese nell’intelligenza artificiale. Ma secondo te, l’Europa può davvero costruire una propria sovranità tecnologica puntando su pochi progetti simbolici, o servirebbe un piano comune più ambizioso e strutturale per evitare di restare dipendente dalle potenze esterne?

Mistral AI è un segnale importante, ma anche un po’ simbolico. È considerata la “risposta europea” ai colossi americani e cinesi, ma in realtà non è del tutto europea: ha investitori e legami esterni, e questo mostra bene i limiti strutturali dell’Europa in campo tecnologico. Il fatto che ci sia praticamente solo una realtà di questa scala sul continente, e che non sia neppure pienamente sotto controllo europeo, la dice lunga sul ritardo che abbiamo accumulato.

Il problema è che non possiamo pensare di costruire una vera sovranità tecnologica affidandoci a un’unica azienda o a pochi progetti simbolici. Servirebbe una strategia comune, ambiziosa e di lungo periodo, che metta insieme infrastrutture, ricerca, università e industria. Finora, invece, ci siamo quasi abituati a considerare la nostra dipendenza dagli Stati Uniti come una cosa scontata. Ma non lo è, soprattutto oggi che i rapporti tra Europa e Stati Uniti non sono più così stabili come un tempo.

Non è un discorso catastrofista, ma un dato di fatto: se volesse, Donald Trump potrebbe “staccare la spina” a buona parte dei nostri sistemi digitali. Lo dicono molti analisti, ed è un rischio reale.

Proprio per questo, servono investimenti seri, non simbolici. È un processo lungo e costoso, ma inevitabile. Il primo passo dovrebbe essere quello di costruire infrastrutture tecnologiche europee, a partire dai data center: finché i nostri dati saranno ospitati e gestiti altrove, non potremo parlare di vera autonomia. Da lì bisogna sviluppare un ecosistema più ampio – fatto di competenze, hardware, e soprattutto di una visione condivisa – che permetta all’Europa di smettere di inseguire e cominciare a costruire.

Anche Lumo di Proton rappresenta un tentativo concreto di costruire un’IA europea fondata sulla privacy e sulla sovranità digitale, ma con prestazioni ancora lontane dai modelli statunitensi.

A tuo avviso, è realistico pensare che l’Europa possa davvero competere sul fronte tecnologico senza rinunciare ai suoi principi etici? Oppure la tutela dei dati e della privacy rischia di limitare l’innovazione europea?

Spesso si tende a contrapporre due cose: da una parte le prestazioni dei modelli d’intelligenza artificiale, dall’altra il rispetto dei dati e della privacy. Ma non credo che esista davvero questo “aut aut”. Non è detto, cioè, che un modello debba rinunciare all’efficienza per essere etico o trasparente.

Nel caso di Lumo, le prestazioni inferiori non hanno nulla a che vedere con i principi di tutela della privacy: dipendono semplicemente dal fatto che Proton non dispone delle risorse economiche e infrastrutturali dei grandi colossi statunitensi. È una questione di mezzi, non di filosofia.

Detto questo, Lumo rappresenta comunque un segnale importante. Mostra che si può provare a costruire un’intelligenza artificiale europea fondata su valori diversi, come la sovranità digitale e la protezione dei dati. Se l’Unione Europea decidesse di investire seriamente – con fondi pubblici, infrastrutture proprie e data center di proprietà europea – si potrebbe davvero sviluppare un grande modello linguistico competitivo e al tempo stesso rispettoso della privacy.

Non sarebbe sufficiente per liberarci subito dalla dipendenza dagli Stati Uniti, ma sarebbe un primo passo concreto. Mistral lo dimostra: non è ancora al livello di ChatGPT e non è del tutto europea, ma dimostra che la distanza si può colmare. Serve solo una base solida, fatta di investimenti, infrastrutture e una strategia comune.

Nel tuo articolo su Wired parli del rischio che AI Mode trasformi il web in un “machine web”, popolato più dalle intelligenze artificiali che dagli utenti. Vedi alternative reali a questo modello di ricerca basato sull’intelligenza artificiale? Esistono, secondo te, strade tecnologiche o normative che potrebbero evitare la deriva del “machine web”?

Non credo che esistano, al momento, vere alternative a questo processo. Anche dal punto di vista normativo, è difficile immaginare una legge che possa davvero impedire l’evoluzione verso un web dominato dai sistemi generativi. Si può teorizzare una regolamentazione che tuteli la diversità delle fonti o limiti l’intermediazione algoritmica, ma nella pratica non vedo strumenti in grado di invertire questa tendenza.

Penso che il percorso sia ormai irreversibile. A meno che non collassino sotto il peso dei costi enormi di mantenimento, i sistemi generativi diventeranno sempre più l’interfaccia principale attraverso cui facciamo esperienza di tutto ciò che si trova su internet. Il web continuerà a esistere, ma come uno strato nascosto, una sorta di infrastruttura digitale che alimenta questi modelli di intelligenza artificiale senza essere più visibile agli utenti.

Questo non significa che scomparirà del tutto la fruizione diretta: ci sarà sempre una minoranza di persone che preferirà leggere alla fonte, consultare giornali, visitare siti e approfondire in modo autonomo. Ma per la maggior parte degli utenti, l’esperienza di internet passerà attraverso i filtri generativi, così come oggi per molti il web coincide con Instagram o TikTok.

I social network hanno già trasformato internet in uno spazio mediato, dove la maggior parte delle persone non naviga più, ma scorre contenuti preconfezionati. I motori di ricerca basati sull’intelligenza artificiale spingono questa logica ancora più avanti: saranno loro a selezionare, sintetizzare e restituire ciò che considerano rilevante.

Il web aperto non sparirà, ma cambierà natura. Diventerà sempre più un “substrato” che alimenta i sistemi generativi, popolato in larga parte da contenuti prodotti per le macchine più che per le persone. È una trasformazione già in atto, e se non interverranno modelli economici o tecnologici diversi, il rischio è che il web umano, quello della scoperta, della curiosità e della pluralità, diventi solo una nicchia.

Sottolinei che AI Mode potrebbe compromettere il modello economico che finora ha sostenuto siti web e testate giornalistiche: credi che Google sarà costretta a trovare un sistema di compensazione per chi produce contenuti, o il valore del traffico organico è destinato a scomparire definitivamente?

Sì, credo che Google sarà costretta, prima o poi, a trovare una forma di compensazione per chi produce contenuti. Il valore del traffico organico è ormai bassissimo e, in molti casi, già in forte calo: diverse testate importanti parlano di una riduzione tra il 35 e il 40%, e siamo solo all’inizio. Le persone sono ancora abituate a usare Google nel modo classico, cliccando sui link, ma è chiaro che con l’espansione di AI Overviews questa dinamica cambierà rapidamente, forse già nel giro di un anno o due.

Detto questo, Google e gli altri grandi player non possono permettersi di prosciugare completamente l’ecosistema da cui traggono valore. I contenuti pubblicati sul web servono perché le intelligenze artificiali possano aggiornarsi e migliorare; senza nuove fonti di qualità, anche i modelli stessi finirebbero per impoverirsi. Per questo, una qualche forma di compensazione sarà inevitabile, anche se non è detto che sarà una soluzione equa o stabile. Potrebbe essere una misura provvisoria, una “pezza”, più che un vero riequilibrio del sistema.

Il problema è che oggi soltanto i grandi gruppi editoriali hanno la forza di negoziare accordi diretti. Tutti gli altri, piccoli siti, redazioni locali, progetti indipendenti, restano esclusi. Servirebbe un’azione collettiva, qualcosa che somigli a un “sindacato del web”, capace di rappresentare chi produce valore informativo senza la forza economica per contrattare con Google.

Da parte sua, Google continua a dichiarare che la “salute dell’open web” resta una sua priorità, ma è evidente che sta facendo esattamente l’opposto: sta drenando contenuti senza restituire valore. E ne è perfettamente consapevole.

Il vero rischio non è l’automazione, ma l’abbandono del pensiero critico nella rete

Dopo aver conversato con Andrea Daniele Signorelli, una cosa è chiara: non possiamo restare spettatori. L’intelligenza artificiale non è solo una questione tecnologica, ma una sfida culturale, economica e politica che tocca tutti noi.

Sta cambiando il modo in cui informiamo, pensiamo e perfino immaginiamo il mondo.

Il futuro del web – e forse della conoscenza stessa – dipenderà da come sceglieremo di usare queste tecnologie: per semplificare o per capire, per sostituire o per potenziare, per delegare o per pensare di più.

E se davvero il rischio è quello di un “machine web”, allora la risposta dovrà essere umana: più curiosità, più consapevolezza, più spirito critico.

La questione non è fermare l’IA. Anche perché non vedo come si possa bloccare la sua crescita così impetuosa…

“Come può uno scoglio arginare il mare”, cantava Battisti!

Eh no, sono convinto che si debba renderla trasparente e utile senza per questo perdere la complessità del pensiero umano.

Se la rete diventerà un luogo abitato più da algoritmi che da persone, sarà perché abbiamo smesso di abitarla davvero. Sta a noi decidere se farne uno spazio di automazione o di intelligenza condivisa.

Un grazie ad Andrea Daniele Signorelli per questa piacevole discussione, che ci ha ricordato come il futuro non sia scritto nei codici delle macchine, ma nelle scelte di chi le utilizza.

E grazie anche a te, per esser stato con noi anche questa settimana, ci vediamo alla prossima puntata di SEO Confidential.

Roberto Serra

Mi chiamo Roberto Serra e sono un digital marketer con una forte passione per la SEO: Mi occupo di posizionamento sui motori di ricerca, strategia digitale e creazione di contenuti.

8 commenti su “SEO Confidential – La nostra intervista esclusiva ad Andrea Daniele Signorelli: il lato oscuro della rivoluzione IA”

  1. L’entusiasmo per l’IA sembra un miraggio dietro cui si celano interessi opachi, un’illusione che svuota il web e il pensiero. Temo che questa “rivoluzione” sia solo un nuovo padrone mascherato da progresso.

  2. Alessandro Parisi

    Solita lagna sul “lato oscuro” dell’IA. Il progresso technologco è inevitabile, piaccia o meno. Il resto è solo fuffa per riempire pagine vuote.

  3. Chiara De Angelis

    Intervista illuminante. 💡 IA = bolla? 🤔 Il web muore? 💀 Spero solo non svuoti pure il mio conto in banca. 💸

  4. Alessio De Santis

    IA, un futuro di pixel vuoti. Il web, un deserto di parole fredde. La nostra mente, un eco spento. L’umanità navigherà in questo mare di silicio?

    1. La rivoluzione IA, dunque, ci promette un web di pura efficienza, ma a quale prezzo per il pensiero critico? Un’ottima riflessione, Signorelli.

      1. Alessio De Santis

        L’IA rischia di svuotare il web di contenuti autentici, favorendo l’efficienza a scapito della qualità. Dobbiamo interrogarci sull’impatto reale sul nostro pensiero critico.

  5. Riccardo De Luca

    Il web sta diventando un posto strano. IA che scodella roba. Il pensiero critico? Mah. Se continuiamo così, pure il buonsenso sparirà. A chi serve?

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ricevi i migliori aggiornamenti di settore