Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →L’IA di Google ora “vede” ciò che inquadri: un assistente esperto o un’altra funzione complessa destinata a pochi utenti negli Stati Uniti?
Google ha rilasciato la versione completa di Search Live con input video, consentendo agli utenti di avviare conversazioni AI basate su ciò che inquadra la fotocamera. Già anticipata al Google I/O 2025, questa funzione, inizialmente disponibile negli Stati Uniti per chi ha attivato "AI Mode" nei Labs, rappresenta un'evoluzione diretta della versione solo audio e un'integrazione con Google Lens, mirando a trasformare la ricerca in un dialogo continuo.
Google ci riprova: la ricerca ora ti guarda con la videocamera
Google ha premuto l’acceleratore, rilasciando la versione completa di Search Live con input video. In pratica, da oggi per alcuni utenti è possibile avviare una conversazione con l’intelligenza artificiale di Google non solo a parole, ma anche mostrandole ciò che inquadra la fotocamera del telefono.
Se ti sembra una novità annunciata, hai ragione: se ne era parlato al Google I/O 2025, ma ora, come riportato da Search Engine Roundtable, il rilascio è diventato realtà , partendo dagli Stati Uniti per chi ha attivato l’esperimento “AI Mode” nei Labs.
L’idea è semplice e, sulla carta, potente: punti la fotocamera su un oggetto, una pianta, un problema matematico su un foglio, e inizi a far domande a voce. L’IA “vede” e risponde, creando un dialogo continuo basato su un contesto visivo e sonoro.
Si tratta di un’evoluzione diretta della versione solo audio lanciata il mese scorso e di un’integrazione sempre più stretta con Google Lens.
Ma come funziona esattamente questa nuova magia targata Mountain View e, soprattutto, a cosa punta davvero Google?
L’assistente perfetto o un altro gadget da marketing?
I dirigenti di Google, ovviamente, la dipingono come una svolta epocale. Robby Stein, uno dei responsabili del progetto, ci parla di un “partner di apprendimento potenziato dall’IA” che può aiutarti con un progetto di scienze o con le domande su un libro di testo.
Rajan Patel rincara la dose, descrivendo la funzione come avere “un esperto a disposizione che vede quello che vedi tu”.
Belle parole, senza dubbio.
Ma la domanda sorge spontanea: quante volte ti troverai davvero a interrogare un libro di testo con la fotocamera invece di, semplicemente, leggerlo?
Il rischio è che, dietro la facciata dell’assistente iper-intelligente, si nasconda un’altra funzionalità complessa che pochi useranno nel quotidiano, un po’ come è successo per altre innovazioni del passato.
La tecnologia, basata su Project Astra, è impressionante, non c’è dubbio.
Ma la sua utilità reale nella vita di tutti i giorni è tutta da dimostrare.
Al di là delle dimostrazioni patinate, però, c’è da capire chi potrà davvero usare questa funzione e, soprattutto, a quale scopo più grande risponde.
Tra sperimentazione e realtà : cosa c’è dietro la spinta di Google sull’IA?
Non facciamoci illusioni: questa non è una funzione per tutti.
Almeno per ora.
Si tratta di un esperimento confinato agli utenti statunitensi che hanno scelto di fare da “tester” per le novità di Google, come descritto da 9to5Google. Questa mossa non è un’evoluzione isolata, ma un altro tassello nel grande piano di Google per trasformare la ricerca da un semplice campo di testo a un dialogo continuo, un ambiente dove l’utente non esce mai.
Si inserisce infatti in un quadro più ampio che comprende le AI Overviews e la Deep Search, tutte iniziative che mirano a rendere Google non più una porta verso il web, ma la destinazione finale.
La domanda finale, però, rimane aperta: questa nuova interazione visiva servirà davvero a darci risposte migliori o è solo un modo più sofisticato per Google di vedere il mondo attraverso i nostri occhi, raccogliendo dati ancora più personali e contestuali?
Staremo a vedere se diventerà uno strumento indispensabile o solo un’altra demo affascinante destinata a pochi eletti.