Google I/O 2025: l’AI è ovunque, ma cosa bolle davvero in pentola?

Anita Innocenti

Tra assistenti che “vedono” il mondo, interfacce emotive e alleanze strategiche, Google punta su un futuro pervaso dall’AI, sollevando interrogativi su privacy e controllo dei dati.

Al Google I/O 2025, l'intelligenza artificiale, con Gemini in primo piano, ha permeato ogni annuncio. Tra le novità spiccano Gemini Ultra, Project Astra per l'interazione visiva e l'AI Mode in Search. L'evento ha sollevato interrogativi su costi, privacy e l'impatto sulla creatività umana, evidenziando la sfida dei colossi tecnologici.

Google i/o 2025: l’AI è ovunque, ma cosa bolle davvero in pentola?

Allora, parliamoci chiaro: Google, durante il suo ultimo I/O, ha praticamente cosparso di intelligenza artificiale ogni cosa che ha presentato. Gemini, il loro cervellone artificiale, sembra essere diventato il nuovo prezzemolo, pronto a insaporire (o forse a confondere?) ogni prodotto del colosso di Mountain View.

Ma andiamo con ordine e cerchiamo di capire cosa c’è dietro a tutti questi annunci pirotecnici.

Hanno svelato una valanga di novità, ben oltre le 100 sessioni annunciate, come descritto sul loro blog per sviluppatori.

Prendi ad esempio Gemini Ultra: un nome che suona potente, e un prezzo che, diciamocelo, non è per tutte le tasche, ben 249.99 dollari al mese.

Ti starai chiedendo cosa ti danno per questa cifra, vero?

Beh, promettono la generazione di video con Veo 3 e una modalità chiamata “Deep Think” nel modello Gemini 2.5 Pro, una funzione che, tra l’altro, arriva con un certo ritardo e che qualche analista, forse con un filo di ironia, ha definito “AGI-lite”, cioè una specie di intelligenza artificiale generale in miniatura, capace di risolvere problemi in modo ricorsivo.

Tutto questo arriva dopo il lancio di Gemini Advanced nel 2024, che ora, tanto per cambiare le carte in tavola, si chiama AI Pro e costa “solo” 49.99 dollari al mese, come riportato su TechCrunch.

E poi c’è Project Astra, un prototipo che ti fa chiedere se siamo finiti in un film di fantascienza: immagina un assistente che, tramite la fotocamera del tuo dispositivo, “vede” e capisce il mondo intorno a te in tempo reale, tipo identificare un cavo di ricarica al volo.

Demis Hassabis, il capo di DeepMind, ha detto che questa tecnologia “sfuma il confine tra assistente e agente”.

Parole grosse, non c’è che dire.

La beta pubblica dovrebbe arrivare a giugno 2025.

Ma mentre ci mostrano queste meraviglie, una domanda sorge spontanea: se l’AI inizia a vedere e sentire tutto quello che facciamo, che ne sarà della nostra libertà e, soprattutto, del nostro guizzo creativo?

Interfacce che “sentono” e alleanze miliardarie: un futuro da toccare con mano (o quasi)

E parlando di creatività e interazione, Google non si è fermata qui.

Hanno tirato fuori dal cilindro Material 3 Expressive, un sistema che permette di creare elementi di interfaccia utente che si adattano, pensa un po’, alle tue emozioni.

Immagina pareti virtuali che cambiano colore in base a come ti senti, tutto grazie a Gemini Nano che ti “legge dentro”.

Bello, affascinante, ma non ti sembra anche un tantino inquietante?

Gli attivisti per la privacy, come evidenziato su dev.to, hanno già lanciato l’allarme: questa roba potrebbe normalizzare una tecnologia che “sente” e reagisce ai nostri stati d’animo, con tutte le implicazioni del caso.

Poi ci sono le mosse strategiche, quelle che ci fanno capire che la partita si gioca su un campo molto più ampio.

Samsung, ad esempio, sta lavorando al suo visore Project Moohan, basato su Android XR, che integrerà Gemini per traduzioni in tempo reale e navigazione 3D.

L’obiettivo?

Dare del filo da torcere all’Apple Vision Pro, ovviamente.

E non è un segreto che Google abbia investito la bellezza di 2 miliardi di dollari in Xreal, un’azienda che produce display a guida d’onda.

Insomma, i giganti della tecnologia si sfidano a colpi di annunci e investimenti miliardari, ma mentre loro giocano questa costosissima partita, siamo sicuri che a beneficiarne saremo davvero noi utenti, o ci ritroveremo solo con l’ennesimo gadget costoso tra le mani e ancora meno controllo sui nostri dati?

La ricerca “intelligente” e l’AI creativa: progresso reale o fumo negli occhi?

Passiamo alla ricerca online, il cuore pulsante dell’impero Google. Hanno introdotto l’AI Mode in Search (per ora solo negli Stati Uniti), promettendo risposte verificate e affidabili.

Suona bene, no?

Peccato che, secondo una ricerca di Stanford citata su YouTube, durante la fase beta ben il 37% delle risposte provenisse da studi protetti da paywall. Google ha replicato dicendo che amplierà l’accesso a Scholar per gli abbonati Ultra, ma la domanda resta:

La conoscenza “verificata” sarà davvero per tutti o solo per chi può permettersela?

E quando si parla di creatività, con Lyria 2 che genera musica multi-strumentale e Veo 3 che migliora i video fino al 4K, le reazioni sono contrastanti. Il regista Darren Aronofsky ha lodato gli strumenti per storyboard, ma ha anche messo in guardia: “L’AI non può sostituire il caos umano della creazione”.

Parole sante, verrebbe da dire.

Per gli sviluppatori, c’è Jules, un assistente per la programmazione basato su Gemini 2.5 Flash, che nei test ha ridotto i tempi di debug del 42%.

Fantastico, ma la trasparenza sui dati usati per addestrarlo?

Un punto dolente, a cui Google ha risposto rendendo open source una parte di Gemini Nano, come spiegato sul blog ufficiale di Google.

Una mossa per calmare le acque o un vero passo verso la trasparenza?

Intanto, con 83 milioni di utenti Gemini nel mondo, la sfida a ChatGPT Enterprise è lanciata.

Sundar Pichai, il CEO di Google, ha chiuso l’evento dicendo che “il potenziale dell’AI è solo all’inizio”.

Sarà, ma mentre Google scommette sull’integrazione come chiave del successo, viene da chiedersi:

Integrazione di cosa, e soprattutto, a vantaggio di chi, alla fine della fiera?

Staremo a vedere, con un occhio aperto e l’altro, forse, un po’ sospettoso.

Anita Innocenti

Sono una copywriter appassionata di search marketing. Scrivo testi pensati per farsi trovare, ma soprattutto per farsi scegliere. Le parole sono il mio strumento per trasformare ricerche in risultati.

3 commenti su “Google I/O 2025: l’AI è ovunque, ma cosa bolle davvero in pentola?”

  1. Ma dai, 249 dollari al mese? A sto punto mi aspetto che Gemini faccia anche il caffè! 😂 Scherzi a parte, sono curioso di vedere come tutto ciò influenzerà i creatori.

  2. Ma seriamente, 249 dollari al mese? Se Gemini non mi prepara la colazione, non so come giustificarlo! 😅 Ho provato qualche AI recentemente e, per quanto siano fighe, a volte mi fanno solo più confusione. Spero che non ci facciano diventare tutti robot! 🦾

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ricevi i migliori aggiornamenti di settore