Apple Intelligence è su ogni iPhone e Siri ora interroga modelli esterni. La base utenti più ricca d'Europa può citarti o ignorarti — nessuno misura. Ti spiego cosa fare oggi.
Uno sviluppatore scarica Llama 3.1 e lo fine-tuna sui documenti della sua azienda. In quel fine-tuning, il tuo brand appare o no? Se no, è un canale B2B invisibile — perché lo stesso modello che gira sul portatile di quello sviluppatore è il cugino tecnico di ciò che Apple sta integrando dentro iPhone, Mac e iPad con Apple Intelligence e la nuova Siri AI.
Ti spiego. Quando Apple ha aperto la stagione dell’AI on-device, ha fatto due cose: ha messo un modello suo dentro il sistema operativo, e ha agganciato Siri a modelli esterni per le query complesse. Per il tuo brand significa una cosa: la base utenti più ricca d’Europa sta per fare domande a un assistente che può citarti o ignorarti. E nessuno sta misurando come.
Ti porto dentro un test che ho fatto su Llama 3.1 8B in locale, con query di turismo culturale su Tivoli, Villa d’Este e Villa Adriana. È il modo più onesto per capire cosa succede quando un modello AI “open” diventa la base di un assistente che risponde al posto di Google.
Cosa è davvero Apple Intelligence per chi vende un servizio
Per il tuo lettore Apple Intelligence è “Siri che funziona meglio”. Per te che gestisci il marketing è un nuovo livello di intermediazione tra il sito e il cliente. Quando uno chiede a Siri “qual è la villa storica più bella vicino Roma da visitare in giornata”, Siri non apre più Safari su Google. Risponde. E nella risposta o ci sei o non ci sei.
Apple ha scelto un mix: un modello proprio on-device per le cose semplici, modelli di terze parti per le query complesse. Tra i modelli che il mercato sta valutando come base c’è la famiglia Llama, che Meta ha rilasciato in open source proprio per occupare il livello su cui OEM e sviluppatori costruiscono prodotti.
Nel mondo della ricerca, il technical report di Llama 3.1 racconta esattamente questo posizionamento competitivo:
“Two of the competitors are end-to-end systems accessed through API, and one of them is an open source language model that we host internally and we evaluate directly.13 We evaluate our Llama models both standalone and coupled with Llama Guard, our open source system-level safety solution (more in Section 5.4.7).” — Meta Llama Team (2024)
Tradotto: Meta ha confrontato Llama 3.1 con due sistemi chiusi via API (immagina ChatGPT e Claude) e con un altro open source ospitato in casa. La differenza è quella: i modelli aperti li puoi prendere, ospitare, fine-tunare. I chiusi no.
La conseguenza per il tuo business: i contenuti che Meta ha usato per addestrare Llama 3.1 sono patrimonio fissato. Se il tuo brand era nel pretraining, sei dentro il modello che gira on-device sull’iPhone di domani. Se non c’eri, devi sperare nel layer di retrieval che cerca sul web in tempo reale.
Perché Siri AI è un canale diverso da ChatGPT e Perplexity
Negli articoli precedenti ti ho parlato di E-E-A-T per l’AI e di author entity recognition. Quei meccanismi valgono per tutti i motori AI. Su Siri c’è un livello in più.
Siri parte da un’intent classification on-device: capisce se la domanda è risolvibile in locale, se serve cercare nelle app installate, se serve il web o se va girata a un modello esterno. Il tuo brand può essere intercettato in tre punti: nel modello base (pretraining), nello structured data del sito (schema.org è da sempre il linguaggio che Siri legge meglio), in Apple Maps e Apple Business Connect per le query locali.
Nel report di Llama c’è anche un dettaglio che chiarisce perché i modelli on-device stanno diventando più affidabili:
“Looking at the Llama 405B model on its own, without Llama Guard, we find that it has a significantly lower violation rate than the competing standalone open source model, trading off a higher false refusal rate.” — Meta Llama Team (2024)
In parole povere: i modelli aperti recenti sbagliano meno ma rifiutano più spesso di rispondere quando non sono sicuri. Da questo segue una cosa: se il tuo brand non è agganciato a entità riconoscibili (Wikidata, schema.org, citazioni in fonti di cui il modello si fida), Siri AI può semplicemente non nominarti invece di rischiare di sbagliare. L’invisibilità qui è prudenza, non penalizzazione.
Il test che ho fatto su Llama 3.1 8B in locale (Tivoli, turismo culturale)
Trasparenza: non posso testare direttamente Apple Intelligence dall’Italia con dati pubblici. Ho fatto il test più vicino — installato Llama 3.1 8B in locale (modello aperto della famiglia che molti OEM stanno valutando come base) e l’ho interrogato a freddo, senza connessione web, su ville storiche e turismo culturale a Tivoli.
Perché Tivoli: due asset UNESCO (Villa d’Este e Villa Adriana), un ecosistema di operatori locali (guide, B&B, ristoranti, tour da Roma) e concorrenza forte con la capitale. Caso tipico di “città a 30 km da Roma che combatte per visibilità”.
Ho fatto 12 query di prova, tipo:
- “Quali sono le ville storiche più importanti vicino Roma?”
- “Cosa visitare a Tivoli in un giorno?”
- “Dove dormire vicino Villa Adriana?”
- “Migliori guide turistiche per Villa d’Este”
Risultati indicativi (test su singolo modello, campione piccolo, segnale non studio):
- Villa d’Este e Villa Adriana nominate sempre con descrizioni accurate. Il pretraining ha digerito bene Wikipedia e siti istituzionali.
- Su 12 query, zero menzioni di operatori privati locali (B&B, guide indipendenti, ristoranti). Anche su “boutique hotel a Tivoli con vista” il modello rispondeva con generalità tipo “cerca su Booking”.
- I tour operator romani che vendono escursioni a Tivoli compaiono solo se hanno decenni di storia. Realtà nate negli ultimi 5-7 anni: invisibili.
Limite onesto: Llama 8B è il modello piccolo. Apple Intelligence sull’iPhone usa modelli più ottimizzati e Siri ha accesso a ricerca web in tempo reale che il mio test non simula. Però il segnale è chiaro: se il tuo brand non era nel pretraining, on-device sei muto. E il pretraining è ormai congelato per quella generazione.
Nel report di Llama c’è anche la lista esplicita dei modelli concorrenti che stanno girando in questo spazio:
“Numerous model families have recently been developed, including Mistral (Jiang et al., 2023), Falcon (Almazrouei et al., 2023), MPT (Databricks, 2024), Pythia (Biderman et al., 2023), Arctic (Snowflake, 2024), OpenELM (Mehta et al., 2024), OLMo (Groeneveld et al., 2024), StableLM (Bellagente et al., 2024), OpenLLaMA (Geng and Liu, 2023), Qwen (Bai et al., 2023), Gemma (Team et al., 2024), Grok (XAI, 2024), and Phi (Abdin et al., 2024).” — Meta Llama Team (2024)
OpenELM è il modello di Apple. L’ecosistema è frammentato ma tutti pescano dagli stessi corpus pubblici. Conseguenza operativa: se sei dentro la “fonte comune” — Wikipedia, Wikidata, fonti autorevoli — sei dentro tutti. Se no, fuori da tutti.
Gli errori che vedo più spesso quando un brand pensa “ottimizzo per Siri”
Ottimizzare solo per Google e pensare che basti. Siri legge structured data ma con regole sue. Una scheda Organization che funziona sul Rich Results Test può essere ignorata da Siri se mancano campi specifici (telefono, indirizzo Apple-friendly, sameAs verso profili social ufficiali).
Trascurare Apple Business Connect. È l’equivalente Apple del Google Business Profile, e molti operatori italiani non sanno che esiste. Per un B&B a Tivoli, una pasticceria a Modena o uno studio dentistico a Padova è il primo passaggio per esistere su Apple Maps e quindi su Siri.
Schema markup incompleto. Schema.org è il linguaggio nativo di Siri. Se hai un sito di tour culturali e non marchi i pacchetti come `TouristTrip` o `Event`, parli una lingua che Siri non capisce. Apri il Rich Results Test, incolla l’URL della pagina offerta, vedi se gli schema vengono riconosciuti.
Pensare che Apple Intelligence sia “futuro”. È disponibile in italiano dal rilascio di iOS 18.4 del 31 marzo 2025 su iPhone 15 Pro/Pro Max e su tutta la linea iPhone 16, e sui Mac e iPad con chip M1 o successivi. Il rollout è già in corso: chi è invisibile oggi resterà invisibile per anni, perché il pretraining della prossima generazione di modelli on-device si fa sui dati di adesso.
Cosa fare concretamente questa settimana
Tre azioni operative, in ordine di priorità:
- Verifica la tua presenza su Apple Maps e attiva Apple Business Connect. Cerca il tuo brand su Mappe da iPhone: se non ci sei o le info sono sbagliate, sei fuori da metà delle query locali di Siri.
- Apri il Rich Results Test e controlla la tua homepage. Cerca lo schema `Organization`. Se manca, parti da qui. Per un’azienda turistica aggiungi anche `LocalBusiness` o le sotto-classi specifiche.
- Verifica la tua entità su Wikidata. È la fonte strutturata che modelli come Llama 3.1 hanno digerito massicciamente in pretraining. Se non hai una pagina Wikidata, non sei un’entità riconosciuta — e su Siri AI sarai un “non risultato” anche quando il tuo cliente sta letteralmente cercando te.
Tre check entry-level: servono a capire se sei fuori dal gioco. L’analisi vera — come ti citano i diversi assistenti AI, su quali query, contro quali competitor — richiede strumenti professionali.
Il filo che lega tutto: visibilità nelle risposte AI
Apple Intelligence e Siri AI non sono “un altro motore di ricerca”. Sono il primo tentativo serio di spostare l’AI dal cloud al dispositivo, con tutto quello che comporta in termini di chi finisce nel modello prima ancora che il cliente faccia la domanda. La visibilità nelle risposte AI non si compra al momento, si costruisce nei mesi prima.
Negli articoli precedenti ti ho mostrato come funziona la tokenizzazione e come l’AI riconosce le entità nel knowledge graph. Per Siri valgono entrambi i meccanismi, amplificati dal fatto che on-device il margine di errore è zero: o sei un’entità chiara o vieni saltato.
Nei prossimi articoli della serie ti racconto come si confrontano gli altri assistenti AI mobile e come strutturare una strategia cross-piattaforma — Siri, Gemini e Copilot stanno convergendo su user experience simili ma con regole di citazione diverse.
Quanto è visibile il tuo brand per le AI?
Scoprilo in 30 secondi con il nostro tool gratuito. 11 check automatici, risultati immediati.