Annunci
Google Cloud Next 2025: raddoppiare l'IA con silicio, software e un ecosistema di agenti aperti

Las Vegas ospita Google Cloud il prossimo 2025, un evento che si svolge in un momento critico per l'industria tecnologica. L'intelligenza artificiale corsa agli armamenti tra i titani delle nuvole – Amazon Web Services (AWS), Microsoft Azure e Google Cloud – sta crescendo rapidamente. Google, spesso considerata la terza contendente nonostante la sua formidabile competenza tecnologica e le sue profonde radici nella ricerca sull'intelligenza artificiale, ha sfruttato la fase Cloud Next per articolare una strategia completa e aggressiva rivolta direttamente al mercato dell'intelligenza artificiale aziendale.
La narrazione, presentata dal CEO di Google Cloud Thomas Kurian e ripresa dal CEO di Google e Alphabet Sundar Pichai, si è concentrata sul passaggio della trasformazione dell'IA da mera possibilità a realtà tangibile. Google ha sottolineato il suo slancio dichiarato, citando oltre 3,000 innovazioni di prodotto nell'ultimo anno, un aumento di venti volte Piattaforma Vertex AI utilizzo dall'ultimo evento Cloud Next, più di quattro milioni di sviluppatori stanno attivamente costruendo con il suo Famiglia di modelli Geminie presentando oltre 500 storie di successo dei clienti durante la conferenza.
Tuttavia, Google Cloud Next 2025 è stato più di una semplice vetrina di aggiornamenti incrementali o metriche impressionanti. Ha anche svelato un'offensiva su più fronti. Con il lancio di potenti chip personalizzati ottimizzati per l'inferenza (il TPU Ironwood), perfezionando il suo portafoglio di modelli di intelligenza artificiale di punta con un focus sulla praticità (Gemini 2.5 Flash), aprendo la sua vasta infrastruttura di rete globale alle imprese (WAN cloud) e facendo una scommessa strategica significativa su un ecosistema aperto e interoperabile per gli agenti di intelligenza artificiale (il protocollo Agent2Agent), Google si sta posizionando in modo aggressivo per definire la prossima fase evolutiva dell'intelligenza artificiale aziendale, quella che l'azienda sta sempre più definendo "era agentica. "
Ironwood, Gemini e l'effetto rete
Al centro delle ambizioni di Google in ambito AI c'è il suo continuo investimento nel silicio personalizzato. La star di Cloud Next 2025 è stata Ironwood, la settima generazione della Tensor Processing Unit (TPU) di Google. Ironwood è presentata come la prima TPU progettata specificamente per AI inferenza – il processo di utilizzo di modelli addestrati per fare previsioni o generare output in applicazioni del mondo reale.
Le prestazioni dichiarate per Ironwood sono sostanziali. Google ha descritto configurazioni dettagliate che arrivano fino a ben 9,216 chip raffreddati a liquido interconnessi in un singolo pod. Si afferma che questa configurazione più grande fornisca ben 42.5 exaflop di potenza di calcolo. Google afferma che ciò rappresenta più di 24 volte la potenza di calcolo per pod di El Capitan, attualmente classificato come il supercomputer più potente al mondo.
Sebbene impressionanti, è importante notare che tali confronti spesso implicano diversi livelli di precisione numerica, rendendo complessa l'equivalenza diretta. Ciononostante, Google posiziona Ironwood come un miglioramento di oltre dieci volte rispetto alla sua precedente generazione di TPU ad alte prestazioni.
Oltre al calcolo grezzo, Ironwood vanta significativi progressi nella memoria e nell'interconnettività rispetto al suo predecessore, Trillium (TPU v6).
Forse altrettanto importante è l'enfasi sull'efficienza energetica. Google afferma che Ironwood offre il doppio delle prestazioni per watt rispetto a Trillium ed è quasi 30 volte più efficiente dal punto di vista energetico rispetto alla sua prima Cloud TPU del 2018. Questo risponde direttamente al crescente vincolo di disponibilità di energia nei data center scalabili per l'intelligenza artificiale.
Confronto tra le generazioni di Google TPU: Ironwood (v7) vs. Trillium (v6)
| Caratteristica | Trillium (TPU v6) | Legno di ferro (TPU v7) | Fattore di miglioramento |
| Focus primario | Formazione e inferenza | Inferenza | Specializzazione |
| Picco di calcolo/chip | Non direttamente confrontabile (diff gen) | 4,614 TFLOP (probabile FP8) | - |
| Capacità/Chip HBM | 32 GB (stima basata su una richiesta di 6x) | 192 GB | 6x |
| Larghezza di banda/chip HBM | ~1.6 Tbps (stimato sulla base di 4.5x) | 7.2 cucchiaio al secondo | 4.5x |
| Larghezza di banda ICI (bidir.) | ~0.8 Tbps (stimato sulla base di 1.5x) | 1.2 cucchiaio al secondo | 1.5x |
| Prestazioni/Watt vs. generazione precedente | Base di riferimento per il confronto | 2x contro Trillium | 2x |
| Prestazioni/Watt contro TPU v1 (2018) | ~15x (stimato) | Quasi 30 volte | ~2x contro Trillium |
Nota: alcuni dati di Trillium sono stimati in base ai fattori di miglioramento dichiarati da Google per Ironwood. Il confronto dei picchi di elaborazione è complesso a causa delle differenze generazionali e delle probabili variazioni di precisione.
Ironwood costituisce una parte fondamentale del concetto di "IA Hypercomputer" di Google, un'architettura che integra hardware ottimizzato (inclusi TPU e GPU come Blackwell di Nvidia e imminente Vera rubino), software (come il runtime di ML distribuito Pathways), storage (Hyperdisk Exapools, Managed Lustre) e networking per affrontare carichi di lavoro di intelligenza artificiale impegnativi.
Sul fronte dei modelli, Google ha introdotto Gemini 2.5 Flash, un contrappunto strategico alla fascia alta Gemelli 2.5 ProMentre Pro punta alla massima qualità per ragionamenti complessi, Flash è esplicitamente ottimizzato per bassa latenza ed efficienza dei costi, rendendolo adatto ad applicazioni ad alto volume e in tempo reale, come interazioni con il servizio clienti o riepiloghi rapidi.
Gemini 2.5 Flash è dotato di un "budget di pensiero" dinamico che adatta l'elaborazione in base alla complessità delle query, consentendo agli utenti di trovare il giusto equilibrio tra velocità, costi e accuratezza. Questa attenzione simultanea a un chip di inferenza ad alte prestazioni (Ironwood) e a un modello ottimizzato in termini di costi/latenza (Gemini Flash) sottolinea la spinta di Google verso la pratica. operazionalizzazione dell'intelligenza artificiale, riconoscendo che i costi e l'efficienza dei modelli di produzione in esecuzione stanno diventando preoccupazioni fondamentali per le aziende.
A complemento degli aggiornamenti di silicio e modello c'è il lancio di Cloud WAN. Google sta effettivamente rendendo produttiva la sua imponente rete globale interna – che si estende per oltre due milioni di miglia di fibra e collega 42 regioni tramite oltre 200 punti di presenza – rendendola direttamente disponibile ai clienti aziendali.
Google afferma che questo servizio può offrire prestazioni fino al 40% più veloci rispetto alla rete Internet pubblica e ridurre il costo totale di proprietà fino al 40% rispetto alle WAN autogestite, il tutto supportato da un SLA di affidabilità del 99.99%. Pensato principalmente per la connettività ad alte prestazioni tra data center e ambienti di collegamento tra filiali/campus, Cloud WAN sfrutta l'infrastruttura esistente di Google, incluso il Network Connectivity Center.
Sebbene Google abbia citato Nestlé e Citadel Securities come early adopter, questa mossa trasforma fondamentalmente un asset infrastrutturale fondamentale in un'arma. Trasforma una necessità operativa interna in un elemento di differenziazione competitiva e in una potenziale fonte di reddito, sfidando direttamente sia i tradizionali fornitori di telecomunicazioni sia le offerte di rete di piattaforme cloud rivali come AWS Cloud WAN e Azure Virtual WAN.

(Fonte: Google DeepMind)
L'offensiva degli agenti: costruire ponti con ADK e A2A
Oltre all'infrastruttura e ai modelli core, Google Cloud Next 2025 ha posto un'enfasi straordinaria su Agenti AI e gli strumenti per costruirli e connetterli. La visione presentata si estende ben oltre i semplici chatbot, prevedendo sistemi sofisticati in grado di ragionare, pianificare ed eseguire autonomamente attività complesse e articolate. L'attenzione si sta chiaramente spostando verso l'abilitazione sistemi multi-agente, dove agenti specializzati collaborano per raggiungere obiettivi più ampi.
Per facilitare questa visione, Google ha introdotto il Kit di sviluppo agente (ADK)ADK è un framework open source, inizialmente disponibile in Python, progettato per semplificare la creazione di singoli agenti e sistemi multi-agente complessi. Google afferma che gli sviluppatori possono creare un agente funzionale con meno di 100 righe di codice.
Le caratteristiche principali includono un approccio code-first per un controllo preciso, supporto nativo per architetture multi-agente, integrazione flessibile degli strumenti (incluso il supporto per Protocollo del contesto del modello, o MCP), funzionalità di valutazione integrate e opzioni di distribuzione che spaziano dai container locali al Vertex AI Agent Engine gestito. ADK supporta inoltre in modo esclusivo lo streaming audio e video bidirezionale per interazioni più naturali e simili a quelle umane. Un "Agent Garden" di accompagnamento fornisce esempi pronti all'uso e oltre 100 connettori predefiniti per avviare lo sviluppo.
Il vero fulcro della strategia degli agenti di Google, tuttavia, è l' Agente2Agente (A2A) protocollo. A2A è una nuova, aprire Standard progettato esplicitamente per l'interoperabilità degli agenti. Il suo obiettivo fondamentale è consentire agli agenti di intelligenza artificiale, indipendentemente dal framework con cui sono stati sviluppati (ADK, LangGraph, CrewAI, ecc.) o dal fornitore che li ha creati, di comunicare in modo sicuro, scambiare informazioni e coordinare le azioni. In questo modo si affronta direttamente la sfida significativa dei sistemi di intelligenza artificiale isolati all'interno delle aziende, in cui gli agenti creati per compiti o reparti diversi spesso non riescono a interagire.
Questa spinta verso un protocollo A2A aperto rappresenta una scommessa strategica significativa. Invece di costruire un ecosistema di agenti proprietario e chiuso, Google sta cercando di stabilire lo standard de facto per la comunicazione tra agenti. Questo approccio sacrifica potenzialmente il lock-in a breve termine in favore della prospettiva di una leadership a lungo termine nell'ecosistema e, soprattutto, riduce gli attriti che ostacolano l'adozione aziendale di sistemi multi-agente complessi.
Promuovendo l'apertura, Google punta ad accelerare l'intero mercato degli agenti, posizionando la sua piattaforma cloud e i suoi strumenti come facilitatori centrali.

Come funziona A2A (Fonte: Google)
Ricalibrare la corsa al cloud: la strategia competitiva di Google
Questi annunci si inseriscono perfettamente nel contesto delle attuali guerre del cloud. Google Cloud, pur dimostrando una crescita impressionante, spesso alimentata dall'adozione dell'intelligenza artificiale, detiene ancora la terza posizione in termini di quota di mercato, dietro ad AWS e Microsoft Azure. Cloud Next 2025 ha messo in luce la strategia di Google di ricalibrare questa competizione, puntando fortemente sui suoi punti di forza e affrontando le debolezze percepite.
I principali fattori di differenziazione di Google sono stati ampiamente evidenziati. L'investimento a lungo termine in silicio personalizzato, culminato nella TPU Ironwood focalizzata sull'inferenza, offre una narrativa hardware distinta rispetto ai chip Trainium/Inferentia di AWS e all'acceleratore Maia di Azure. Google sottolinea costantemente la leadership in termini di prestazioni per watt, un fattore potenzialmente cruciale con l'aumento della domanda di energia per l'intelligenza artificiale. Il lancio di Cloud WAN potenzia l'impareggiabile infrastruttura di rete globale di Google, offrendo un netto vantaggio di networking.
Inoltre, Google continua a sfruttare la sua eredità di intelligenza artificiale e apprendimento automatico, derivante da La ricerca di DeepMind e si manifesta nella piattaforma completa Vertex AI, in linea con la sua percezione di mercato come leader nell'intelligenza artificiale e nell'analisi dei dati.
Allo stesso tempo, Google ha segnalato sforzi per affrontare le preoccupazioni aziendali storiche. L'enorme Acquisizione da 32 miliardi di dollari della società di sicurezza cloud Wiz, annunciato poco prima di Next, è una chiara dichiarazione di intenti volta a rafforzare la propria posizione in materia di sicurezza e a migliorare l'usabilità e l'esperienza delle sue offerte di sicurezza, aree fondamentali per la fiducia delle aziende.
L'attenzione costante rivolta alle soluzioni di settore, alla preparazione aziendale e alle partnership strategiche mira ulteriormente a rimodellare la percezione del mercato, da un semplice fornitore di tecnologia a un partner aziendale affidabile.
Nel complesso, la strategia di Google sembra meno focalizzata sull'abbinamento servizio-servizio di AWS e Azure su tutta la linea e più concentrata sullo sfruttamento delle sue risorse uniche (ricerca sull'intelligenza artificiale, hardware personalizzato, rete globale e affinità open source) per stabilire la leadership in quella che percepisce come la prossima ondata cruciale del cloud computing: intelligenza artificiale su larga scala, inferenza particolarmente efficiente e sistemi agenti sofisticati.
La strada futura per l'intelligenza artificiale di Google
Google Cloud Next 2025 ha presentato un'avvincente narrazione di ambizione e coerenza strategica. Google sta raddoppiando gli sforzi sull'intelligenza artificiale, concentrando le sue risorse su silicio personalizzato ottimizzato per l'era dell'inferenza (Ironwood), un portafoglio di modelli di intelligenza artificiale bilanciato e pratico (Gemini 2.5 Pro e Flash), la sua esclusiva infrastruttura di rete globale (Cloud WAN) e un approccio audace e aperto al mondo in rapida crescita degli agenti di intelligenza artificiale (ADK e A2A).
In definitiva, l'evento ha messo in luce un'azienda che si sta muovendo con decisione per tradurre le sue profonde competenze tecnologiche in un'offerta aziendale completa e differenziata per l'era dell'intelligenza artificiale. La strategia integrata – hardware, software, networking e standard aperti – è solida. Tuttavia, il percorso da percorrere richiede più della semplice innovazione.
La sfida più significativa per Google potrebbe risiedere meno nella tecnologia e più nel superare l'inerzia nell'adozione da parte delle aziende e nel costruire una fiducia duratura. Convertire questi annunci ambiziosi in guadagni di quote di mercato duraturi rispetto a concorrenti profondamente radicati richiede un'esecuzione impeccabile, chiare strategie di go-to-market e la capacità di convincere costantemente le grandi organizzazioni che Google Cloud è la piattaforma indispensabile per il loro futuro guidato dall'intelligenza artificiale. Il futuro agentico che Google immagina è avvincente, ma la sua realizzazione dipende dalla capacità di destreggiarsi in queste complesse dinamiche di mercato ben oltre la chiusura dei riflettori di Las Vegas.












