google_io_2025

GOOGLE I/O 2025: avanti tutta sull’AI | GEMINI 2.5 e non solo..

L’I/O 2025 si è appena concluso e la prima cosa sottolineata da Google stessa è stata come l’adozione dell’intelligenza artificiale abbia raggiunto ritmi senza precedenti. I modelli AI sono sempre più integrati in applicazioni quotidiane, strumenti di produttività, piattaforme di comunicazione e servizi di ricerca. Google ha fornito un aggiornamento dettagliato sull’evoluzione del proprio ecosistema AI, che ruota attorno alla famiglia di modelli Gemini, e su come questo stia influenzando sviluppatori, imprese e utenti finali in tutto il mondo.

Un salto di scala nell’utilizzo

L’incremento nell’adozione si riflette in diversi indicatori. Nell’ultimo anno, i prodotti e le API di Google sono passati da elaborare 9,7 trilioni di token al mese a oltre 480 trilioni, un incremento di 50 volte. Parallelamente, il numero di sviluppatori che lavorano con Gemini è salito a oltre 7 milioni (cinque volte di più rispetto all’anno precedente), e l’utilizzo di Gemini su Vertex AI è cresciuto di 40 volte. L’app Gemini, inoltre, conta oggi oltre 400 milioni di utenti attivi mensili, con un incremento del 45% nell’utilizzo della versione Pro 2.5.

Dalla ricerca all’applicazione concreta

L’avanzamento dell’AI sta uscendo dalla fase puramente sperimentale per concretizzarsi in applicazioni pratiche. Un esempio è la transizione dal Project Starline a Google Beam, una piattaforma di comunicazione video che sfrutta AI e tecnologia lightfield per creare video tridimensionali realistici, con tracciamento della testa in tempo reale. Il sistema, che impiega sei videocamere e un display 3D, sarà disponibile entro l’anno grazie a una collaborazione con HP.

All’interno di Google Meet, è in fase di lancio anche una nuova funzionalità di traduzione vocale quasi in tempo reale, capace di replicare voce, tono ed espressioni di chi parla. Disponibile in inglese e spagnolo per gli abbonati AI Pro e Ultra, sarà successivamente estesa ad altre lingue e utenti business di Workspace.

L’evoluzione degli agenti: Project Astra e Project Mariner

La ricerca di Google si è concentrata anche sull’espansione delle capacità dei cosiddetti agenti AI. Project Astra, oggi integrato in Gemini Live, consente all’assistente di interagire con il mondo circostante grazie alla condivisione dello schermo e all’uso della fotocamera. Questa funzionalità è disponibile per tutti gli utenti Android e iOS.

Project Mariner, invece, è un’iniziativa rivolta allo sviluppo di agenti capaci di operare autonomamente sul web o sul computer. Grazie a tecniche come “insegna e ripeti”, questi agenti imparano a svolgere compiti osservandoli una sola volta. Alcuni tester selezionati (come UiPath e Automation Anywhere) stanno già sperimentando queste capacità, che saranno rese disponibili tramite API Gemini entro l’estate.

Per facilitare un ecosistema integrato, Google ha sviluppato protocolli come Agent2Agent (per la comunicazione tra agenti) e ha adottato Model Context Protocol (di Anthropic) per l’accesso a servizi esterni. Anche Chrome, la Ricerca e l’app Gemini stanno iniziando a integrare queste funzioni: ad esempio, il nuovo Agent Mode sarà in grado di cercare case online, filtrare gli annunci e fissare appuntamenti, tutto in autonomia.

Contesto personale e risposte personalizzate

Uno degli obiettivi di Google è rendere l’AI più utile nel quotidiano attraverso la personalizzazione contestuale. Con il consenso dell’utente, Gemini potrà accedere in modo privato e trasparente a dati personali (ad esempio da Gmail o Google Drive) per generare risposte più pertinenti.

Un caso concreto è rappresentato dalle risposte rapide personalizzate in Gmail: se qualcuno chiede consigli su un viaggio già fatto, Gemini potrà cercare documenti o email correlate e redigere una risposta che rispecchia lo stile comunicativo dell’utente. Questa funzione sarà disponibile per gli abbonati entro la fine dell’anno.

Ricerca sempre più intelligente: AI Mode e Overview

L’intelligenza artificiale sta trasformando anche il motore di ricerca. La funzione AI Overview, lanciata lo scorso anno, è ora attiva per oltre 1,5 miliardi di persone in 200 paesi. In mercati chiave come Stati Uniti e India, ha portato a un incremento superiore al 10% nelle ricerche che attivano le risposte AI. L’espansione di Gemini coinvolgerà anche il browser Chrome, dove sarà possibile porre domande direttamente durante la navigazione.

A fianco di questa funzionalità, Google ha introdotto AI Mode, una nuova modalità che consente di porre domande più lunghe e complesse e di proseguire con richieste successive. Disponibile da subito per tutti gli utenti statunitensi, AI Mode è accessibile come scheda separata nella Ricerca.

I nuovi modelli Gemini 2.5 e Flash

L’ultimo aggiornamento dei modelli Gemini ha portato due principali novità. Gemini 2.5 Pro introduce Deep Think, una nuova modalità avanzata di ragionamento che sfrutta tecniche parallele per affrontare compiti complessi. Gemini 2.5 Flash, invece, diventa il nuovo modello predefinito per la sua rapidità e l’efficienza nei costi, pur mantenendo una qualità elevata nelle risposte.

L’app Gemini diventa più proattiva

L’app Gemini ha subito un’espansione funzionale significativa. Gemini Live, la modalità che consente di interagire con l’AI tramite fotocamera e condivisione dello schermo, è ora disponibile gratuitamente per tutti gli utenti Android e iOS. Questa funzione consente, ad esempio, di inquadrare oggetti reali per ricevere spiegazioni o assistenza in tempo reale. I dati interni mostrano che, in media, le conversazioni via Gemini Live durano cinque volte di più rispetto a quelle testuali, a testimonianza di una maggiore interazione.

Nelle prossime settimane, Gemini Live sarà progressivamente integrato con altri servizi Google, tra cui Maps, Calendar, Tasks e Keep. Questa connessione consentirà all’utente, ad esempio, di creare automaticamente eventi a partire da una conversazione o di ricevere suggerimenti contestuali, come ristoranti nelle vicinanze. La gestione di questi collegamenti con i dati e le app sarà possibile direttamente dalle impostazioni dell’app Gemini.

Generazione avanzata di immagini e video

L’app include ora anche Imagen 4, l’ultima versione del modello di generazione di immagini. Con miglioramenti nella qualità del testo, nella resa tipografica e nella rapidità di risposta, Imagen 4 si propone come uno strumento utile per la creazione di materiali visivi, come presentazioni, grafiche social o inviti.

Sul versante video, è stato introdotto Veo 3, modello generativo che consente di produrre contenuti video accompagnati da audio nativo. Questo include suoni ambientali, effetti sonori e persino dialoghi tra personaggi, generati a partire da semplici prompt testuali. Veo 3 è attualmente disponibile per gli abbonati al piano Google AI Ultra negli Stati Uniti.

Novità per studenti e sviluppatori

In arrivo anche aggiornamenti importanti per strumenti come Deep Research e Canvas, che permetteranno una maggiore interazione con contenuti informativi, nuove possibilità per la creazione di podcast e funzionalità evolute per la programmazione di siti web e applicazioni in modalità vibe coding.

Sul fronte educativo, Google ha annunciato che gli studenti universitari di Stati Uniti, Brasile, Indonesia, Giappone e Regno Unito potranno usufruire gratuitamente del piano Gemini AI Pro per un intero anno accademico. Inoltre, l’azienda ha presentato il nuovo piano Google AI Ultra, destinato agli utenti che desiderano limiti di utilizzo più elevati e accesso anticipato alle novità all’interno dell’app.

Infine, Gemini 2.5 Flash diventa il modello predefinito all’interno della piattaforma, grazie alla combinazione tra tempi di risposta ridotti e qualità delle risposte.

Conclusioni

L’ecosistema Gemini si sta trasformando rapidamente, passando da strumenti di supporto testuale a piattaforme multimodali capaci di ragionare, personalizzare, generare contenuti e agire in autonomia. L’accelerazione nell’adozione è significativa, e le nuove funzionalità annunciate mirano a rendere l’AI sempre più utile, accessibile e integrata nella quotidianità degli utenti e delle imprese.