Connect with us

Google Cloud Next 2025: raddoppiando l’impegno sull’AI con Silicon, Software e un Ecosistema di Agenti Aperto

Annunci

Google Cloud Next 2025: raddoppiando l’impegno sull’AI con Silicon, Software e un Ecosistema di Agenti Aperto

mm

Las Vegas ospita Google Cloud Next 2025, un evento che si svolge in un momento critico per l’industria tecnologica. La corsa agli armamenti dell’intelligenza artificiale tra i giganti del cloud – Amazon Web Services (AWS), Microsoft Azure e Google Cloud – si sta intensificando rapidamente. Google, spesso considerato il terzo concorrente nonostante la sua formidabile potenza tecnologica e le profonde radici nella ricerca sull’AI, ha colto l’occasione di Cloud Next per articolare una strategia globale e aggressiva mirata direttamente al mercato dell’AI aziendale.

Il discorso, tenuto dal CEO di Google Cloud Thomas Kurian e ribadito dal CEO di Google e Alphabet Sundar Pichai, si è concentrato sul passaggio della trasformazione dell’AI da mera possibilità a realtà tangibile. Google ha sottolineato il suo presunto slancio, citando oltre 3.000 miglioramenti del prodotto nel corso dell’ultimo anno, un aumento venti volte maggiore dell’utilizzo della piattaforma Vertex AI rispetto all’evento Cloud Next precedente, più di quattro milioni di sviluppatori attivamente impegnati a costruire con la sua famiglia di modelli Gemini e presentando oltre 500 storie di successo dei clienti durante la conferenza.

Tuttavia, Google Cloud Next 2025 è stato più di una semplice presentazione di aggiornamenti incrementali o metriche impressionanti. Ha anche lanciato un’offensiva a più livelli. Lanciando potenti silici personalizzati ottimizzati per l’inferenza (il TPU Ironwood), raffinando il suo portfolio di modelli AI di bandiera con un focus sulla praticità (Gemini 2.5 Flash), aprendo la sua vasta infrastruttura di rete globale alle aziende (Cloud WAN) e facendo una scommessa strategica significativa su un ecosistema aperto e interoperabile per gli agenti AI (il protocollo Agent2Agent), Google si sta posizionando aggressivamente per definire la prossima fase evolutiva dell’AI aziendale – ciò che l’azienda sta sempre più definendo l’“era agente”.

Ironwood, Gemini e l’effetto di rete

Centrale per le ambizioni di Google sull’AI è il suo continuo investimento in silicio personalizzato. La star di Cloud Next 2025 è stato Ironwood, la settima generazione dell’unità di elaborazione tensoriale (TPU) di Google. Criticamente, Ironwood è presentato come il primo TPU progettato esplicitamente per l’inferenza AI – il processo di utilizzo di modelli addestrati per effettuare previsioni o generare output in applicazioni del mondo reale.

Le pretese di prestazione per Ironwood sono sostanziali. Google ha dettagliato configurazioni che scalano fino a un immenso 9.216 chip raffreddati a liquido interconnessi all’interno di un singolo pod. Questa configurazione più grande è in grado di consegnare una potenza di calcolo sbalorditiva di 42,5 exaflops. Google afferma che ciò rappresenta più di 24 volte la potenza di calcolo per pod del supercomputer più potente del mondo, El Capitan.

Sebbene impressionante, è importante notare che tali confronti spesso coinvolgono diversi livelli di precisione numerica, rendendo complessa l’equivalenza diretta. Tuttavia, Google posiziona Ironwood come un miglioramento di oltre dieci volte rispetto alla sua precedente generazione di TPU ad alte prestazioni.

Oltre alla potenza di calcolo grezza, Ironwood vanta notevoli progressi in termini di memoria e connettività rispetto al suo predecessore, Trillium (TPU v6).

Forse altrettanto importante è l’enfasi sull’efficienza energetica. Google afferma che Ironwood consegna il doppio delle prestazioni per watt rispetto a Trillium ed è quasi 30 volte più efficiente dal punto di vista energetico rispetto al suo primo TPU Cloud del 2018. Ciò affronta direttamente la crescente limitazione della disponibilità di potenza nella scalabilità dei data center per l’AI.

Confronto tra le generazioni di TPU di Google: Ironwood (v7) vs. Trillium (v6)

Caratteristica Trillium (TPU v6) Ironwood (TPU v7) Fattore di miglioramento
Focus principale Addestramento e inferenza Inferenza Specializzazione
Picco di calcolo/Chip Non direttamente confrontabile (gen diverse) 4.614 TFLOPs (probabilmente FP8)
Capacità HBM/Chip 32 GB (stima basata sulla rivendicazione 6x) 192 GB 6x
Larghezza di banda HBM/Chip ~1,6 Tbps (stima basata su 4,5x) 7,2 Tbps 4,5x
Larghezza di banda ICI (bidirezionale) ~0,8 Tbps (stima basata su 1,5x) 1,2 Tbps 1,5x
Prestazioni/Watt rispetto alla generazione precedente Base di confronto 2x rispetto a Trillium 2x
Prestazioni/Watt rispetto al TPU v1 (2018) ~15x (stima) Quasi 30x ~2x rispetto a Trillium


Nota: alcune cifre di Trillium sono stimate in base ai fattori di miglioramento rivendicati da Google per Ironwood. Il confronto della potenza di calcolo è complesso a causa delle differenze generazionali e della probabile variazione di precisione.

Ironwood costituisce una parte fondamentale del concetto di “AI Hypercomputer” di Google – un’architettura che integra hardware ottimizzato (compresi TPU e GPU come Nvidia’s Blackwell e il prossimo Vera Rubin), software (come il runtime ML distribuito Pathways), archiviazione (Hyperdisk Exapools, Managed Lustre) e rete per affrontare carichi di lavoro AI impegnativi.

Sul fronte dei modelli, Google ha introdotto Gemini 2.5 Flash, un contrappunto strategico al Gemini 2.5 Pro di fascia alta. Mentre Pro si concentra sulla massima qualità per il ragionamento complesso, Flash è esplicitamente ottimizzato per la bassa latenza e l’efficienza dei costi, rendendolo adatto ad applicazioni ad alta volumetria e in tempo reale come le interazioni con il servizio clienti o la rapida sintesi.

Gemini 2.5 Flash presenta un “budget di pensiero” dinamico che regola l’elaborazione in base alla complessità della query, consentendo agli utenti di bilanciare la velocità, il costo e l’accuratezza. Questo focus simultaneo su un chip di inferenza ad alte prestazioni (Ironwood) e su un modello ottimizzato per i costi/latenza (Gemini Flash) sottolinea la spinta di Google verso l’operazionalizzazione pratica dell’AI, riconoscendo che i costi e l’efficienza dell’esecuzione dei modelli in produzione stanno diventando preoccupazioni fondamentali per le aziende.

A complemento degli aggiornamenti del silicio e dei modelli è il lancio di Cloud WAN. Google sta effettivamente produttivizzando la sua enorme rete interna globale – che copre oltre due milioni di miglia di fibra, collega 42 regioni tramite oltre 200 punti di presenza – rendendola direttamente disponibile ai clienti aziendali.

Google afferma che questo servizio può offrire fino al 40% di prestazioni più veloci rispetto a Internet pubblico e ridurre il costo totale di proprietà fino al 40% rispetto ai WAN gestiti autonomamente, supportato da un accordo di livello di servizio (SLA) di affidabilità del 99,99%. Principalmente rivolto alla connettività ad alte prestazioni tra data center e alla connessione di ambienti di filiali/campus, Cloud WAN sfrutta l’infrastruttura esistente di Google, compreso il Network Connectivity Center.

Mentre Google ha citato Nestlé e Citadel Securities come primi adottanti, questo passo trasforma fondamentalmente un asset di infrastruttura di base in un differenziatore competitivo e in una potenziale fonte di entrate, sfidando direttamente sia i tradizionali fornitori di telecomunicazioni che le offerte di rete delle piattaforme cloud rivali come AWS Cloud WAN e Azure Virtual WAN.

(Fonte: Google DeepMind)

L’offensiva degli agenti: costruire ponti con ADK e A2A

Al di là dell’infrastruttura e dei modelli di base, Google Cloud Next 2025 ha posto un’enfasi straordinaria sugli agenti AI e sugli strumenti per costruirli e connetterli. La visione presentata si estende ben oltre i semplici chatbot, immaginando sistemi sofisticati in grado di ragionamento autonomo, pianificazione ed esecuzione di compiti complessi e a più fasi. L’attenzione si sta chiaramente spostando verso l’abilitazione di sistemi multi-agente, in cui agenti specializzati collaborano per raggiungere obiettivi più ampi.

Per facilitare questa visione, Google ha introdotto il Kit di sviluppo di agenti (ADK). ADK è un framework open-source, inizialmente disponibile in Python, progettato per semplificare la creazione di singoli agenti e sistemi multi-agente complessi. Google afferma che gli sviluppatori possono costruire un agente funzionale con meno di 100 righe di codice.

Le caratteristiche chiave includono un approccio code-first per il controllo preciso, supporto nativo per architetture multi-agente, flessibile integrazione degli strumenti (compreso il supporto per il Model Context Protocol, o MCP), capacità di valutazione integrate e opzioni di distribuzione che vanno da contenitori locali al motore di agenti Vertex AI gestito. ADK supporta inoltre in modo unico lo streaming audio e video bidirezionale per interazioni più naturali e simili a quelle umane. Un “Giardino degli agenti” fornisce campioni pronti all’uso e oltre 100 connettori predefiniti per avviare lo sviluppo.

Il vero fulcro della strategia degli agenti di Google, tuttavia, è il protocollo Agent2Agent (A2A). A2A è uno standard aperto nuovo, progettato esplicitamente per l’interoperabilità degli agenti. Il suo obiettivo fondamentale è consentire agli agenti AI, indipendentemente dal framework con cui sono stati costruiti (ADK, LangGraph, CrewAI, ecc.) o dal fornitore che li ha creati, di comunicare in modo sicuro, scambiare informazioni e coordinare azioni. Ciò affronta direttamente la sfida significativa dei sistemi AI isolati all’interno delle aziende, dove gli agenti costruiti per diversi compiti o dipartimenti spesso non possono interagire.

Questa spinta per un protocollo A2A aperto rappresenta una scommessa strategica significativa. Invece di costruire un ecosistema di agenti chiuso e proprietario, Google sta cercando di stabilire lo standard de facto per la comunicazione degli agenti. Questo approccio potenzialmente sacrifica il blocco a breve termine per la prospettiva di una leadership a lungo termine nell’ecosistema e, in modo cruciale, riduce l’attrito che ostacola l’adozione aziendale di sistemi multi-agente complessi.

Sostenendo l’apertura, Google mira ad accelerare l’intero mercato degli agenti, posizionando la sua piattaforma cloud e gli strumenti come facilitatori centrali.

Come funziona A2A (Fonte: Google)

Ricalibrare la gara del cloud: la mossa competitiva di Google

Questi annunci si inseriscono perfettamente nel contesto delle guerre del cloud in corso. Google Cloud, mentre dimostra una crescita impressionante spesso alimentata dall’adozione dell’AI, detiene ancora la terza posizione in termini di quota di mercato, dietro AWS e Microsoft Azure. Cloud Next 2025 ha presentato la strategia di Google per ricalibrare questa gara, puntando fortemente sulle sue uniche forze e affrontando le debolezze percepite.

I differenziatori chiave di Google sono stati ampiamente esposti. Gli investimenti a lungo termine in silicio personalizzato, culminati nel TPU Ironwood ottimizzato per l’inferenza, forniscono un racconto hardware distinto rispetto ai chip Trainium/Inferentia di AWS e all’acceleratore Maia di Azure. Google enfatizza costantemente il leadership in termini di prestazioni per watt, un fattore potenzialmente cruciale poiché le richieste energetiche dell’AI aumentano. Il lancio di Cloud WAN trasforma la rete globale di Google in un vantaggio di rete distintivo.

Inoltre, Google continua a sfruttare il suo patrimonio di AI e apprendimento automatico, derivante dalla ricerca di DeepMind e manifestatosi nella piattaforma Vertex AI completa, allineandosi con la sua percezione di mercato come leader in AI e analisi dei dati.

Allo stesso tempo, Google ha segnalato sforzi per affrontare le preoccupazioni aziendali storiche. L’acquisizione di 32 miliardi di dollari per l’acquisizione di Wiz, una startup di sicurezza cloud, annunciata poco prima di Next, è una chiara dichiarazione di intenti per rafforzare la sua postura di sicurezza e migliorare l’usabilità e l’esperienza delle sue offerte di sicurezza – aree critiche per la fiducia aziendale.

L’enfasi continua sulle soluzioni per settori, sulla prontezza aziendale e sui partenariati strategici mira a ridisegnare la percezione di mercato da un puro fornitore di tecnologia a un partner aziendale affidabile.

Considerati insieme, la strategia di Google sembra meno focalizzata sul fare una copia servizio-per-servizio rispetto ad AWS e Azure, e più concentrata sull’utilizzo dei suoi asset unici – ricerca sull’AI, hardware personalizzato, rete globale e affinità open-source – per stabilire la leadership in ciò che percepisce come l’onda cruciale successiva del cloud computing: l’AI su larga scala, in particolare l’inferenza efficiente e i sistemi agente sofisticati.

La strada ahead per Google AI

Google Cloud Next 2025 ha presentato un racconto di ambizione e coerenza strategica convincente. Google sta raddoppiando l’impegno sull’intelligenza artificiale, mobilitando le sue risorse attraverso silicio personalizzato ottimizzato per l’era dell’inferenza (Ironwood), un portfolio di modelli AI equilibrato e pratico (Gemini 2.5 Pro e Flash), la sua rete globale unica (Cloud WAN) e un approccio aperto audace al mondo emergente degli agenti AI (ADK e A2A).

Alla fine, l’evento ha mostrato un’azienda che si muove aggressivamente per tradurre le sue profonde capacità tecnologiche in un’offerta aziendale completa e differenziata per l’era dell’AI. La strategia integrata – hardware, software, rete e standard aperti – è solida. Tuttavia, il percorso che si apre richiede più che innovazione.

La sfida più grande di Google potrebbe risiedere meno nella tecnologia e più nel superare l’inerzia dell’adozione aziendale e costruire una fiducia duratura. Convertire questi annunci ambiziosi in guadagni di quota di mercato sostenibili contro concorrenti profondamente radicati richiede un’esecuzione impeccabile, strategie di andare al mercato chiare e la capacità di convincere costantemente le grandi organizzazioni che Google Cloud è la piattaforma indispensabile per il loro futuro guidato dall’AI. Il futuro agente che Google immagina è convincente, ma la sua realizzazione dipende dalla navigazione di queste complesse dinamiche di mercato molto tempo dopo che il riflettore di Las Vegas si sarà spento.

Alex McFarland è un giornalista e scrittore di intelligenza artificiale che esplora gli ultimi sviluppi nel campo dell'intelligenza artificiale. Ha collaborato con numerose startup di intelligenza artificiale e pubblicazioni in tutto il mondo.