Negative Mention Dilution: come seppellire una menzione negativa sotto il volume positivo

Hai venti recensioni positive e tre negative su una testata di settore autorevole, e pensi che il rapporto sia favorevole? Per l'AI quella matematica non funziona così. Le tre menzioni negative su una fonte autorevole pesano in proporzione molto di più delle venti su directory generiche — il modello applica un peso per autorità della fonte, non una media aritmetica. La parte peggiore è che le menzioni negative già nel corpus di training non si tolgono: nessuna richiesta legale, nessun redirect 301 le cancella da lì. L'unica leva è la dilution: volume superiore di menzioni positive su fonti di pari o maggiore autorità, con co-occorrenze semantiche forti, finché il bilancio si sposta. Ti spiego il test che puoi fare in quindici minuti per sapere dove sei oggi e come pianificare la risposta.

Hai 20 recensioni positive e 3 negative. Per Google OK. Per l’AI, se quelle 3 sono citate in un articolo importante, pesano il triplo. Ecco come diluire.

La matematica della reputazione non è più lineare da quando a leggere il web ci sono anche ChatGPT, Perplexity, Claude e Gemini. Il motore AI non fa la media aritmetica delle recensioni come Google: pesa ogni menzione per autorità della fonte, contesto semantico in cui appare, co-occorrenza con altre entità. Tre menzioni negative su una testata locale autorevole pesano più di venti recensioni positive su directory generiche.

Nei miei articoli di questa serie ti ho già raccontato come funziona la citation economy per l’AI: non conta solo il link, conta la menzione in contesto. Oggi ti spiego la parte che tutti evitano — cosa fare quando una menzione negativa è già là fuori, non si può togliere, e sta rovinando come l’AI descrive il tuo brand.

Perché non puoi semplicemente cancellare

La menzione negativa vive in tre posti contemporaneamente: sulla fonte originale, nella cache dei motori, e — cosa molto peggio — nel corpus di training dei modelli AI. Quando Anthropic, OpenAI o Google hanno fatto il crawling del web per addestrare i loro modelli, hanno preso tutto. Compresa quella recensione con tre stelle su un aggregatore di turismo che parlava male della colazione.

Anche togliendo la pagina sorgente oggi, quella menzione è già nel peso dei parametri del modello. Non si estrae. Non si annulla con una richiesta legale. Non si cancella con un redirect 301.

L’unica leva che ti resta è il volume e l’autorità delle menzioni positive future. Il modello, al prossimo retraining o al prossimo recupero in tempo reale tramite search integration, aggiorna il sentiment aggregato in base a quello che trova. Se trova dieci volte più segnali positivi di quelli negativi, e su fonti di pari o superiore autorità, il bilancio si sposta.

Questo non è un trucco di reputation management classico. È il riconoscimento di come funziona l’architettura di chi ti legge quando un utente scrive “agriturismi borghi rurali Sicilia centrale” su ChatGPT.

Come il modello AI legge un sentiment aggregato

Negli articoli precedenti su come pensano i motori AI ti ho spiegato che l’AI non legge testi, legge token in contesto. Quando un utente chiede un parere sul tuo brand, il modello richiama tutti i passaggi del corpus in cui il tuo nome appare, li pesa, e sintetizza una risposta.

Il peso di ogni passaggio dipende da tre variabili che ho visto emergere chiaramente lavorando con brand in crisi reputazionale:

  • Autorità della fonte: una menzione su una testata di settore pesa 5-10 volte una menzione su un forum generico. Ne ho scritto in backlink come citation proxy.
  • Co-occorrenza con entità positive: se il tuo brand compare accanto a “premio”, “restauro conservativo”, “segnalazione”, il modello impara un’associazione positiva.
  • Frequenza temporale recente: menzioni degli ultimi 12 mesi pesano più di menzioni vecchie. Il modello preferisce informazione fresca.

Da questo segue che la dilution non è nascondere sotto il tappeto. È saturare il campo semantico con segnali positivi di qualità superiore, così quando l’AI costruisce il sentiment aggregato, il peso negativo diventa una frazione trascurabile del totale.

Il test che puoi fare in 15 minuti

Prima di pianificare qualsiasi campagna di dilution, devi sapere cosa l’AI pensa oggi del tuo brand. Non è un audit tecnico, è una conversazione.

Apri Perplexity e fai tre query sul tuo brand:

  1. “Cosa si dice di [nome brand]?”
  2. “[nome brand] opinioni e recensioni”
  3. “Esperienze con [nome brand]”

Poi ripeti le stesse tre query su ChatGPT con il search attivo e su Gemini. Annota per ogni risposta: quali fonti cita, con che tono, se menziona aspetti negativi e dove li ha presi.

Se lo stesso aspetto negativo salta fuori su 2 motori su 3, hai un problema di dilution urgente. Se compare solo su uno, sei in fase gestibile. Se nessuno lo cita ma tu sai che la menzione negativa esiste, sei in una finestra di opportunità — devi muoverti prima che entri nel recupero.

Per mappare il volume complessivo delle tue menzioni puoi usare anche Google Trends per capire quando se ne parla e Google Search Console per vedere quali pagine ricevono query che citano il tuo brand in modo negativo. È un check entry level: l’analisi vera richiede strumenti professionali di brand monitoring.

Il caso dell’agriturismo nel borgo

Ti racconto una storia concreta, perché la teoria senza un caso si dimentica.

Un operatore in provincia di Enna aveva recuperato un borgo rurale abbandonato e lo aveva trasformato in agriturismo diffuso — case sparse nel nucleo storico, ristorante nella vecchia stalla, cantina sotto l’ex frantoio. Progetto serio, investimento di anni. Poi, nell’estate di due anni fa, una stagione difficile: tre recensioni fortemente negative su una testata di viaggi di discreta autorevolezza, amplificate da un articolo di una rivista online specializzata in turismo lento che riprendeva quelle lamentele.

Quando l’operatore mi ha contattato, aveva fatto il test su Perplexity: alla query “agriturismi borgo recuperato Sicilia centrale”, il modello elencava cinque opzioni. Il suo borgo compariva al quarto posto, con una nota che sintetizzava “alcune criticità su servizio e pulizia riportate da recensioni recenti”. Tradotto: l’AI aveva imparato il frame negativo e lo stava ripetendo.

L’intervento è stato di dilution strutturata su 9 mesi. Obiettivo: generare almeno 8 menzioni positive su fonti di autorità pari o superiore per ogni singola menzione negativa rilevata. Non sono recensioni finte, sono attività PR reali:

  • Tre feature editoriali su testate di turismo esperienziale nazionale, ottenute offrendo due giornalisti per un soggiorno reportage.
  • Una partecipazione a un documentario RAI sul recupero dei borghi siciliani.
  • Quattro pezzi su riviste di architettura e restauro, centrati sul lavoro conservativo.
  • Due interventi come speaker in conferenze su turismo sostenibile, con atti pubblicati online.
  • Una scheda migliorata su Wikidata con link alle fonti autorevoli appena ottenute.

Dopo 9 mesi abbiamo rifatto le stesse query su Perplexity, ChatGPT e Gemini. Il brand era salito al primo posto su due motori, al secondo sul terzo. La nota negativa era sparita dalla sintesi: era stata sostituita da frasi tipo “celebrato per il restauro conservativo del borgo”. Le tre recensioni negative originali esistono ancora, sono lì dove erano. Ma pesano ora una frazione del totale.

Questo è un case study singolo, un operatore, un settore specifico: pattern indicativo, non studio statistico. Ma la logica del meccanismo è documentabile e riproducibile su altri settori.

Gli errori che vedo più spesso

Dopo 18 mesi di lavoro su brand con problemi di menzioni negative, i pattern che tornano sempre sono quattro.

Cercare di far cancellare la fonte originale. Funziona raramente, lascia tracce legali peggiori del problema iniziale, e soprattutto non rimuove la menzione dal corpus già trainato. Spreco di energia.

Rispondere pubblicamente alla recensione negativa con toni polemici. Genera contesto testuale aggiuntivo intorno alla menzione negativa, rinforzando l’associazione nel modello. Il tuo brand diventa co-occorrente con “conflitto”, “difesa”, “controversia”. L’AI impara il frame peggio di prima.

Generare menzioni positive di bassa autorità in volume. Venti schede su directory di ultima fascia non pesano quanto un articolo su una testata Tier 1 del settore. L’AI non conta, pesa. Un segnale forte vince dieci segnali deboli, come ti ho spiegato in implicit reference weight.

Muoversi solo quando la crisi è acuta. La dilution richiede 6-12 mesi per incidere sul sentiment aggregato dei modelli, perché deve attraversare i cicli di retraining o di aggiornamento degli indici di search integration. Partire tardi significa convivere con la percezione negativa per trimestri.

Cosa fare concretamente

Se hai rilevato una menzione negativa rilevante, ecco la sequenza operativa:

  • Classifica l’autorità della fonte negativa su scala ternaria: Tier 1 (testata nazionale/settore), Tier 2 (regionale/verticale), Tier 3 (aggregatore/forum).
  • Per ogni menzione Tier 1, pianifica 8-10 menzioni positive su fonti Tier 1 o Tier 2 nei successivi 6-9 mesi.
  • Per ogni menzione Tier 2, 4-5 menzioni positive Tier 1 o Tier 2 in 3-6 mesi.
  • Per menzioni Tier 3, 2-3 menzioni positive Tier 2 sono sufficienti — l’autorità della sorgente è già bassa.
  • Rifai il test trimestrale sulle tre query di Perplexity per misurare lo spostamento del sentiment.

Confrontati sempre con i 3-5 competitor che l’AI cita nel tuo settore quando fai la query “migliori [categoria] [zona]”: vedrai quali fonti l’AI considera credibili e potrai targetizzarle.

Dove continua il discorso

La dilution è una leva di lungo periodo nel lavoro di visibilità nelle risposte AI. Non è un fattore magico, non basta da solo, e non sostituisce una strategia PR complessiva. Funziona solo se integrata con una produzione editoriale di qualità e una presenza su fonti che i modelli già considerano autorevoli.

Nei prossimi articoli di questa serie ti racconto due meccanismi complementari: la citation attribution accuracy, cioè come assicurarti che l’AI attribuisca correttamente le fonti quando ti cita, e la social mention aggregation, che spiega come i segnali sociali confluiscono nel sentiment aggregato che il modello usa per descriverti.

Quanto è visibile il tuo brand per le AI?

Scoprilo in 30 secondi con il nostro tool gratuito. 11 check automatici, risultati immediati.

Roberto Serra

Mi chiamo Roberto Serra e sono un digital marketer con una forte passione per la SEO: Mi occupo di posizionamento sui motori di ricerca, strategia digitale e creazione di contenuti.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Quanto è visibile il tuo brand per le AI? Analizza il tuo brand