Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →
Un terremoto per l’informazione online, con crolli verticali del traffico e una redistribuzione massiccia della visibilità che solleva interrogativi sui criteri di Google.
Il Core Update di Google di fine 2025 ha inferto un colpo durissimo all'editoria online, azzerando il traffico di molti siti di notizie. Questa mossa solleva seri dubbi sulla neutralità di Big G, soprattutto se, come si ipotizza, a essere penalizzato è stato chi ha bloccato i crawler dell'IA per proteggere i propri contenuti, svelando un rapporto sempre più sbilanciato.
Ti sei svegliato una mattina dell’anno nuovo, hai aperto Google Analytics e hai sentito un brivido lungo la schiena?
Se gestisci un sito di notizie o un portale editoriale, è molto probabile che la risposta sia sì. Quello che è successo non è stato un caso, né un problema tecnico del tuo sito. Google ha semplicemente premuto un interruttore, rilasciando il suo “December 2025 Core Update“, e per molti è stato un vero e proprio terremoto.
Diciamocelo chiaramente: da anni viviamo in un duopolio digitale dove le regole le detta quasi esclusivamente Big G. E quando decide di cambiare le carte in tavola, lo fa senza preavviso e senza troppi riguardi per chi, su quelle regole, ci ha costruito un’intera attività. Questa volta, a farne le spese, è stato il mondo dell’informazione online, che ha visto il traffico organico svanire come neve al sole.
Ma la vera domanda non è cosa è successo, ma perché.
Un crollo verticale per l’informazione online
I dati che stanno emergendo sono tutt’altro che rassicuranti.
Parliamo di un crollo generalizzato che ha colpito in modo durissimo soprattutto il traffico proveniente da Google Discover, una delle principali fonti di visite per le testate giornalistiche. Molti editori hanno segnalato perdite che vanno dal 70% al 90% da questo canale specifico, praticamente un azzeramento.
Ma il problema è più ampio: un’analisi riportata su PPC.land ha mostrato un calo medio complessivo del traffico per i siti di notizie di quasi 24 punti percentuali.
Questo non è stato un aggiustamento di poco conto.
È stato un colpo durissimo, inferto proprio durante il periodo delle feste, quando magari l’attenzione era rivolta altrove.
La cosa più interessante, però, è che non tutti hanno perso. Alcuni, una minoranza a dire il vero, hanno visto il proprio traffico aumentare. Questo significa che non si è trattato di una penalizzazione generalizzata contro le news, ma di una redistribuzione massiccia della visibilità.
Google ha deciso che alcuni meritavano di più e molti, moltissimi, meritavano di meno.
E il criterio con cui ha preso questa decisione solleva più di un dubbio.
Ma cosa è cambiato davvero nei criteri di Google?
La versione ufficiale, come sempre, parla di migliorare la qualità dei risultati e di premiare i contenuti che dimostrano competenza, autorevolezza e affidabilità. Tutte parole bellissime, che però si scontrano con una realtà ben diversa.
L’aggiornamento sembra aver dato un peso enorme alla pertinenza tematica e alla chiarezza dell’intento di ricerca, ma come vengono misurati questi fattori? Resta un mistero custodito gelosamente a Mountain View.
Viene da chiedersi se l’obiettivo fosse davvero quello di offrire risultati migliori all’utente, o piuttosto quello di favorire certi tipi di contenuti (e di editori) a discapito di altri, magari per allineare i risultati di ricerca ai propri interessi commerciali o a quelli dei suoi modelli di intelligenza artificiale.
Quando un’azienda privata ha un controllo così capillare sull’accesso all’informazione, è legittimo porsi delle domande sulla sua presunta neutralità.
E se ti dicessi che, nel tentativo di proteggersi, molti editori potrebbero essersi dati la zappa sui piedi da soli?
La beffa dell’IA: proteggere i contenuti è costato caro?
Ecco la parte più amara della storia.
Negli ultimi mesi, con l’esplosione delle intelligenze artificiali generative, molti editori hanno deciso di bloccare i crawler delle varie IA per impedire che i loro contenuti venissero usati per addestrare questi modelli senza alcuna remunerazione. Una mossa comprensibile, quasi doverosa, per difendere la propria proprietà intellettuale.
Eppure, sembra che questa scelta possa aver avuto un effetto boomerang devastante.
L’ipotesi, tutt’altro che peregrina, è che bloccando i bot dell’IA, questi siti abbiano inviato un segnale negativo anche a Google. Forse il motore di ricerca ha interpretato questa chiusura come una mancanza di trasparenza o, peggio ancora, ha “punito” chi non contribuisce al suo stesso appetito di dati per addestrare i suoi modelli.
Se così fosse, ci troveremmo di fronte a un paradosso incredibile: per proteggere il tuo lavoro, vieni penalizzato da chi dovrebbe valorizzarlo.
L’aggiornamento si è concluso ufficialmente a inizio gennaio, ma le sue conseguenze sono appena iniziate. E la sensazione è che il rapporto tra Google e l’editoria sia diventato ancora più sbilanciato e pericoloso.

Ci si lamenta perché il padrone di casa sfratta chi non paga l’affitto con i propri dati. Che tenera questa improvvisa scoperta del mondo.
@Noemi Barbato, più che un padrone di casa, un monopolista che riscrive le regole a suo piacimento. A pagare il prezzo di una minore pluralità di fonti è sempre l’utente finale.