Connect with us

Aankondigingen

Google Cloud Next 2025: Inzetten op AI met Silicon, Software en een Open Agent Ecosystem

mm

Las Vegas is gastheer van Google Cloud Next 2025, een evenement dat plaatsvindt op een kritiek moment voor de technologie-industrie. De artificiële intelligentie-wapenwedloop onder de cloud-reuzen – Amazon Web Services (AWS), Microsoft Azure en Google Cloud – escaleert snel. Google, vaak gezien als de derde kandidaat ondanks zijn formidabele technische mogelijkheden en diepe AI-onderzoeksroots, greep de Cloud Next-podium aan om een uitgebreide en agressieve strategie te articuleren die rechtstreeks gericht is op de enterprise AI-markt.

Het verhaal, gepresenteerd door Google Cloud CEO Thomas Kurian en herhaald door Google en Alphabet CEO Sundar Pichai, draaide om het verplaatsen van AI-transformatie van een mogelijke naar een tastbare realiteit. Google benadrukte zijn beweerde momentum, met meer dan 3.000 productverbeteringen in het afgelopen jaar, een twintigvoudige toename van Vertex AI-platform-gebruik sinds het vorige Cloud Next-evenement, meer dan vier miljoen ontwikkelaars die actief bouwen met zijn Gemini-familie van modellen en meer dan 500 klantensuccesverhalen tijdens de conferentie.

Google Cloud Next 2025 was echter meer dan een presentatie van incrementele updates of indrukwekkende metrics. Het onthulde ook een meervoudige offensief. Door het lanceren van krachtige, inference-geoptimaliseerde aangepaste silicon (de Ironwood TPU), het verfijnen van zijn vlaggenschip AI-modelportfolio met een focus op praktische toepassing (Gemini 2.5 Flash), het openstellen van zijn uitgebreide wereldwijde netwerkinfrastructuur voor ondernemingen (Cloud WAN) en het plaatsen van een significante, strategische inzet op een open, interoperabele ecosystem voor AI-agents (het Agent2Agent-protocol), positioneert Google zich agressief om de volgende evolutionaire fase van enterprise AI te definiëren – wat het bedrijf steeds vaker de “agentic-era” noemt.

Ironwood, Gemini en het Netwerkeffect

Centraal in Google’s AI-ambities staat de voortdurende investering in aangepaste silicon. De ster van Cloud Next 2025 was Ironwood, de zevende generatie van Google’s Tensor Processing Unit (TPU). Critisch is dat Ironwood wordt gepresenteerd als de eerste TPU die expliciet is ontworpen voor AI-inference – het proces van het gebruiken van getrainde modellen om voorspellingen te doen of outputs te genereren in real-world toepassingen.

De prestatieclaims voor Ironwood zijn aanzienlijk. Google heeft configuraties gepresenteerd die opschalen tot een immense 9.216 vloeistofgekoelde chips die zijn verbonden binnen een enkele pod. Deze grootste configuratie zou een verbluffende 42,5 exaflops aan rekenkracht moeten leveren. Google beweert dat dit meer dan 24 keer de per-pod rekenkracht is van El Capitan, momenteel gerangschikt als de krachtigste supercomputer ter wereld.

Hoewel indrukwekkend, is het belangrijk op te merken dat dergelijke vergelijkingen vaak verschillende niveaus van numerieke precisie betreffen, waardoor directe equivalentie complex is. Niettemin positioneert Google Ironwood als een verbetering van meer dan tien keer ten opzichte van zijn voorgaande high-performance TPU-generatie.

Naast pure rekenkracht, beschikt Ironwood over aanzienlijke verbeteringen in geheugen en interconnectiviteit in vergelijking met zijn voorganger, Trillium (TPU v6).

Misschien net zo belangrijk is de nadruk op energoefficiëntie. Google beweert dat Ironwood tweemaal de prestatie per watt levert in vergelijking met Trillium en bijna 30 keer meer energie-efficiënt is dan zijn eerste Cloud TPU uit 2018. Dit adresseert direct de groeiende beperking van stroombeschikbaarheid bij het schalen van datacenters voor AI.

Google TPU Generatie Vergelijking: Ironwood (v7) vs. Trillium (v6)

Kenmerk Trillium (TPU v6) Ironwood (TPU v7) Verbeteringsfactor
Primaire Focus Training & Inference Inference Specialisatie
Piek Rekenkracht/Chip Niet direct vergelijkbaar (verschillende generaties) 4.614 TFLOPs (FP8 waarschijnlijk)
HBM Capaciteit/Chip 32 GB (geschat op basis van 6x claim) 192 GB 6x
HBM Bandbreedte/Chip ~1,6 Tbps (geschat op basis van 4,5x) 7,2 Tbps 4,5x
ICI Bandbreedte (bidirectioneel) ~0,8 Tbps (geschat op basis van 1,5x) 1,2 Tbps 1,5x
Prestatie/Watt vs. Vorige Generatie Basis voor vergelijking 2x vs Trillium 2x
Prestatie/Watt vs. TPU v1 (2018) ~15x (geschat) Bijna 30x ~2x vs Trillium


Opmerking: Sommige Trillium-cijfers zijn geschat op basis van Google’s beweerde verbeteringsfactoren voor Ironwood. De vergelijking van piekprestaties is complex vanwege generatieverschillen en waarschijnlijke precisievariaties.

Ironwood vormt een cruciaal onderdeel van Google’s “AI Hypercomputer”-concept – een architectuur die geoptimaliseerde hardware (inclusief TPUs en GPUs zoals Nvidia’s Blackwell en de toekomstige Vera Rubin), software (zoals de Pathways distributed ML runtime), opslag (Hyperdisk Exapools, Managed Lustre) en netwerken combineert om veeleisende AI-werklasten aan te pakken.

Op het gebied van modellen introduceerde Google Gemini 2.5 Flash, een strategisch tegenwicht voor het high-end Gemini 2.5 Pro. Terwijl Pro is gericht op maximale kwaliteit voor complexe redenering, is Flash expliciet geoptimaliseerd voor lage latentie en kostenefficiëntie, waardoor het geschikt is voor high-volume, real-time toepassingen zoals klantenservice-interacties of snelle samenvatting.

Gemini 2.5 Flash beschikt over een dynamisch “denkbudget” dat de verwerking aanpast op basis van querycomplexiteit, waardoor gebruikers de balans tussen snelheid, kosten en nauwkeurigheid kunnen afstemmen. Deze gelijktijdige focus op een high-performance inference-chip (Ironwood) en een kostenefficiënte model (Gemini Flash) benadrukt Google’s push naar de praktische operationele inzet van AI, erkennend dat de kosten en efficiëntie van het uitvoeren van modellen in productie essentiële zorgen zijn voor ondernemingen.

Aanvullend op de siliconen- en modelupdates is de lancering van Cloud WAN. Google maakt effectief zijn enorme interne wereldwijde netwerk – dat meer dan twee miljoen mijl aan glasvezel omvat, 42 regio’s verbindt via meer dan 200 punten van aanwezigheid – rechtstreeks beschikbaar voor ondernemingsklanten.

Google beweert dat deze dienst tot 40% snellere prestaties kan leveren in vergelijking met het openbare internet en de totale kosten van eigendom kan verlagen met tot 40% ten opzichte van zelfbeheerde WAN’s, ondersteund door een SLA van 99,99% betrouwbaarheid. Primair gericht op high-performance connectiviteit tussen datacenters en het verbinden van filiaal-/campusomgevingen, maakt Cloud WAN gebruik van Google’s bestaande infrastructuur, inclusief het Network Connectivity Center.

Terwijl Google Nestlé en Citadel Securities noemde als vroege aanvaarders, is deze stap fundamenteel een wapening van een kerninfrastructuuractivum. Het transformeert een interne operationele noodzaak in een concurrentieel differentiator en potentieel inkomstenstroom, waarmee het zowel traditionele telecommunicatieproviders als de netwerkaanbod van rivaliserende cloudplatforms zoals AWS Cloud WAN en Azure Virtual WAN direct uitdaagt.

(Bron: Google DeepMind)

De Agent Offensief: Bruggen Bouwen met ADK en A2A

Verder dan infrastructuur en core-modellen, legde Google Cloud Next 2025 een buitengewone nadruk op AI-agents en de tools om ze te bouwen en te verbinden. De visie die werd gepresenteerd, gaat verder dan eenvoudige chatbots, en voorziet in geavanceerde systemen die in staat zijn tot autonome redenering, planning en uitvoering van complexe, multi-stap taken. De focus verschuift duidelijk naar het mogelijk maken van multi-agent systemen, waarin gespecialiseerde agents samenwerken om bredere doelen te bereiken.

Om deze visie te faciliteren, introduceerde Google de Agent Development Kit (ADK). ADK is een open-source framework, aanvankelijk beschikbaar in Python, ontworpen om de creatie van individuele agents en complexe multi-agent systemen te vereenvoudigen. Google beweert dat ontwikkelaars een functionele agent kunnen bouwen met minder dan 100 regels code.

Sleutelfuncties omvatten een code-first benadering voor precieze controle, native ondersteuning voor multi-agent architectuur, flexibele toolintegratie (inclusief ondersteuning voor het Model Context Protocol, of MCP), ingebouwde evaluatiecapaciteiten en implementatieopties variërend van lokale containers tot de beheerde Vertex AI Agent Engine. ADK ondersteunt ook uniek tweerichtings audio- en videostreaming voor meer natuurlijke, mensachtige interacties. Een bijbehorend “Agent Garden” biedt klaar-voor-gebruik voorbeelden en meer dan 100 vooraf gebouwde connectors om de ontwikkeling te versnellen.

Het werkelijke middelpunt van Google’s agentstrategie is echter het Agent2Agent (A2A) protocol. A2A is een nieuwe, open standaard die expliciet is ontworpen voor agent-interoperabiliteit. Zijn fundamentele doel is om AI-agents, ongeacht het framework waarin ze zijn gebouwd (ADK, LangGraph, CrewAI, etc.) of de leverancier die ze heeft gemaakt, in staat te stellen om veilig te communiceren, informatie uit te wisselen en acties te coördineren. Dit adresseert direct de significante uitdaging van geïsoleerde AI-systemen binnen ondernemingen, waar agents die zijn gebouwd voor verschillende taken of afdelingen vaak niet kunnen interacteren.

Deze push voor een open A2A-protocol vertegenwoordigt een significante strategische gok. In plaats van een propriëtair, gesloten agent-ecosysteem te bouwen, probeert Google de de facto standaard voor agentcommunicatie te vestigen. Deze aanpak offreert potentieel korte-termijn lock-in voor de vooruitzichten van langetermijnecosysteemleiderschap en, cruciaal, vermindert de wrijving die de adoptie van complexe multi-agent systemen door ondernemingen hindert.

Door openheid te bevorderen, streeft Google ernaar om de hele agentmarkt te versnellen, waarbij zijn cloudplatform en -tools worden gepositioneerd als centrale facilitators.

Hoe A2A werkt (Bron: Google)

De Cloud Race Herijken: Google’s Competitieve Gambit

Deze aankondigingen landen vierkant in de context van de voortdurende cloud-oorlogen. Google Cloud, terwijl het indrukwekkende groei vertoont, vaak aangewakkerd door AI-adoptie, houdt nog steeds de derde positie in marktaandeel, achter AWS en Microsoft Azure. Cloud Next 2025 toonde Google’s strategie om deze race te herijken door zwaar in te zetten op zijn unieke krachten en om de waargenomen zwakheden aan te pakken.

Google’s belangrijkste differentiatoren waren volop in beeld. De langetermijninvestering in aangepaste silicon, culminerend in de inference-georiënteerde Ironwood TPU, biedt een distinctief hardwarverhaal in vergelijking met AWS’ Trainium/Inferentia-chips en Azure’s Maia-accelerator. Google benadrukt consistent prestatie-per-watt leiderschap, een potentieel cruciaal factor aangezien AI-energievraag stijgt. De lancering van Cloud WAN wapent Google’s ongeëvenaarde wereldwijde netwerkinfrastructuur, waardoor een distinctief netwerkvoordeel ontstaat.

Bovendien blijft Google zijn AI- en machine learning-erfgoed benutten, dat voortkomt uit DeepMind’s onderzoek en geïncarneerd is in het uitgebreide Vertex AI-platform, in overeenstemming met zijn marktperceptie als leider in AI en data-analyse.

Tegelijkertijd signaleerde Google inspanningen om historische ondernemingszorgen aan te pakken. De massive $32 miljard overname van cloud-beveiligingsbedrijf Wiz, aangekondigd kort voor Next, is een duidelijke verklaring van intentie om zijn beveiligingspositie te versterken en de gebruiksvriendelijkheid en ervaring van zijn beveiligingsaanbod te verbeteren – gebieden die kritiek zijn voor ondernemingsvertrouwen.

De voortdurende nadruk op branchespecifieke oplossingen, ondernemingsgereedheid en strategische partnerschappen zijn bedoeld om de marktperceptie te herschikken van een pure technologieprovider naar een vertrouwd ondernemingspartner.

Samengevat, lijkt Google’s strategie minder gericht op het service-voor-service volgen van AWS en Azure, en meer geconcentreerd op het benutten van zijn unieke activa – AI-onderzoek, aangepaste hardware, wereldwijd netwerk en open-source affiniteit – om leiderschap te vestigen in wat het beschouwt als de volgende cruciale golf van cloud computing: AI op schaal, met name efficiënte inference en geavanceerde agentic systemen.

De Weg Vooruit voor Google AI

Google Cloud Next 2025 presenteerde een overtuigend verhaal van ambitie en strategische coherentie. Google zet fors in op artificiële intelligentie, mobiliseert zijn middelen over aangepaste silicon geoptimaliseerd voor de inference-era (Ironwood), een evenwichtig en praktisch AI-modelportfolio (Gemini 2.5 Pro en Flash), zijn unieke wereldwijde netwerkinfrastructuur (Cloud WAN) en een moedige, open aanpak van de opkomende wereld van AI-agents (ADK en A2A).

Uiteindelijk toonde het evenement een bedrijf dat agressief zijn diepe technische mogelijkheden vertaalt in een uitgebreid, gedifferentieerd ondernemingsaanbod voor de AI-era. De geïntegreerde strategie – hardware, software, netwerken en open standaarden – is solide. Toch ligt de weg vooruit minder in technologie en meer in het overwinnen van ondernemingsadoptie-inertie en het opbouwen van duurzame vertrouwen. Het omzetten van deze ambitiese aankondigingen in duurzame marktaandeelwinsten tegen diep gewortelde concurrenten vereist vlekkeloze uitvoering, duidelijke go-to-market strategieën en de capaciteit om consistent grote organisaties te overtuigen dat Google Cloud het onmisbare platform is voor hun AI-gedreven toekomst. De agentic toekomst die Google voor ogen heeft, is overtuigend, maar de realisatie ervan hangt af van het navigeren door deze complexe marktdynamiek, lang nadat de Las Vegas-spotlight is gedoofd.

Alex McFarland is een AI-journalist en schrijver die de laatste ontwikkelingen op het gebied van kunstmatige intelligentie onderzoekt. Hij heeft samengewerkt met talloze AI-startups en publicaties wereldwijd.