Ankündigungen
Google Cloud Next 2025: Verdoppelung der KI mit Silizium, Software und einem offenen Agenten-Ökosystem

Las Vegas ist Gastgeber für Google Cloud Weiter 2025, ein Ereignis, das sich zu einem kritischen Zeitpunkt für die Technologiebranche ereignet. Die künstliche Intelligenz Wettrüsten unter den Cloud-Titanen – Amazon Web Services (AWS), Microsoft Azure und Google Cloud – wächst rasant. Google, das trotz seiner enormen technologischen Kompetenz und seiner tiefen Wurzeln in der KI-Forschung oft als dritter Kandidat gehandelt wird, nutzte die Cloud Next-Phase, um eine umfassende und aggressive Strategie zu entwickeln, die sich direkt an den Enterprise-KI-Markt richtet.
Die Erzählung, die von Google Cloud CEO Thomas Kurian vorgetragen und von Google und Alphabet CEO Sundar Pichai aufgegriffen wurde, konzentrierte sich darauf, die KI-Transformation von der bloßen Möglichkeit zur greifbaren Realität zu machen. Google unterstrich seine behauptete Dynamik und verwies auf über 3,000 Produktverbesserungen im vergangenen Jahr, eine Verzwanzigfachung der Vertex AI-Plattform Nutzung seit dem letzten Cloud Next-Event, mehr als vier Millionen Entwickler bauen aktiv mit seiner Gemini-Modellfamilie, und präsentierte während der Konferenz über 500 Erfolgsgeschichten von Kunden.
Google Cloud Next 2025 war jedoch mehr als nur eine Präsentation inkrementeller Updates oder beeindruckender Kennzahlen. Es war auch der Beginn einer vielschichtigen Offensive. Mit der Einführung leistungsstarker, inferenzoptimierter kundenspezifischer Chips (die Ironwood TPU), die Weiterentwicklung seines Flaggschiff-KI-Modellportfolios mit Schwerpunkt auf der Praxistauglichkeit (Gemini 2.5 Flash), die Öffnung seiner riesigen globalen Netzwerkinfrastruktur für Unternehmen (Cloud-WAN) und einer bedeutenden strategischen Wette auf ein offenes, interoperables Ökosystem für KI-Agenten (das Agent2Agent-Protokoll) positioniert sich Google aggressiv, um die nächste Evolutionsphase der Unternehmens-KI zu definieren – was das Unternehmen zunehmend als „Agenten-Ära"
Ironwood, Gemini und der Netzwerkeffekt
Im Mittelpunkt der KI-Ambitionen von Google stehen die kontinuierlichen Investitionen in kundenspezifische Siliziumchips. Der Star von Cloud Next 2025 war Ironwood, die siebte Generation von Googles Tensor Processing Unit (TPU). Ironwood wird als die erste TPU präsentiert, die speziell für AI Inferenz – der Prozess der Verwendung trainierter Modelle zum Treffen von Vorhersagen oder Generieren von Ergebnissen in realen Anwendungen.
Die Leistungsversprechen für Ironwood sind beachtlich. Google hat detaillierte Konfigurationen mit bis zu 9,216 flüssigkeitsgekühlten Chips aufgelistet, die in einem einzigen Pod miteinander verbunden sind. Diese größte Konfiguration soll beeindruckende 42.5 Exaflops Rechenleistung liefern. Laut Google entspricht dies mehr als dem 24-fachen der Rechenleistung pro Pod von El Capitan, derzeit als der leistungsstärkste Supercomputer der Welt eingestuft.
Obwohl die Ergebnisse beeindruckend sind, muss man beachten, dass solche Vergleiche oft unterschiedliche numerische Genauigkeitsgrade erfordern, was die direkte Äquivalenz komplex macht. Dennoch positioniert Google Ironwood als mehr als zehnmal bessere Lösung als seine vorherige Hochleistungs-TPU-Generation.
Über die reine Rechenleistung hinaus bietet Ironwood im Vergleich zu seinem Vorgänger Trillium (TPU v6) erhebliche Fortschritte bei Speicher und Interkonnektivität.
Ebenso wichtig ist möglicherweise die Betonung der Energieeffizienz. Google behauptet, Ironwood biete im Vergleich zu Trillium die doppelte Leistung pro Watt und sei fast 30-mal energieeffizienter als seine erste Cloud TPU aus dem Jahr 2018. Dies trägt direkt der wachsenden Einschränkung der Stromverfügbarkeit bei der Skalierung von Rechenzentren für KI Rechnung.
Vergleich der Google TPU-Generationen: Ironwood (v7) vs. Trillium (v6)
| Merkmal | Trillium (TPU v6) | Eisenholz (TPU v7) | Verbesserungsfaktor |
| Hauptfokus | Training und Inferenz | Inferenz | Spezialisierung |
| Maximale Rechenleistung/Chip | Nicht direkt vergleichbar (Diff-Gen) | 4,614 TFLOPs (wahrscheinlich FP8) | - |
| HBM Kapazität/Chip | 32 GB (geschätzt basierend auf 6x-Anspruch) | 192 GB | 6x |
| HBM Bandbreite/Chip | ~1.6 Tbps (geschätzt basierend auf 4.5x) | 7.2 Tbps | 4.5x |
| ICI-Bandbreite (bidir.) | ~0.8 Tbps (geschätzt basierend auf 1.5x) | 1.2 Tbps | 1.5x |
| Leistung/Watt im Vergleich zur vorherigen Generation | Ausgangsbasis zum Vergleich | 2x gegen Trillium | 2x |
| Leistung/Watt vs. TPU v1 (2018) | ~15x (geschätzt) | Fast 30x | ~2x gegenüber Trillium |
Hinweis: Einige Trillium-Zahlen basieren auf den von Google angegebenen Verbesserungsfaktoren für Ironwood. Der Vergleich der Spitzenleistung ist aufgrund von Generationsunterschieden und wahrscheinlichen Genauigkeitsabweichungen komplex.
Ironwood ist ein wichtiger Bestandteil von Googles „AI Hypercomputer“-Konzept – einer Architektur, die optimierte Hardware integriert (einschließlich TPUs und GPUs wie Nvidias Blackwell und bevorstehend Vera Rubin), Software (wie die verteilte ML-Laufzeitumgebung von Pathways), Speicher (Hyperdisk Exapools, Managed Lustre) und Netzwerke, um anspruchsvolle KI-Workloads zu bewältigen.
Auf der Modellseite stellte Google Gemini 2.5 Flash vor, einen strategischen Kontrapunkt zum High-End Gemini 2.5 ProWährend Pro auf maximale Qualität für komplexe logische Schlussfolgerungen abzielt, ist Flash ausdrücklich auf geringe Latenz und Kosteneffizienz optimiert und eignet sich daher für Echtzeitanwendungen mit hohem Volumen wie Kundendienstinteraktionen oder schnelle Zusammenfassungen.
Gemini 2.5 Flash verfügt über ein dynamisches „Denkbudget“, das die Verarbeitung an die Komplexität der Abfrage anpasst und es Benutzern ermöglicht, das Gleichgewicht zwischen Geschwindigkeit, Kosten und Genauigkeit zu optimieren. Dieser gleichzeitige Fokus auf einen leistungsstarken Inferenzchip (Ironwood) und ein kosten-/latenzoptimiertes Modell (Gemini Flash) unterstreicht Googles Streben nach der praktischen Operationalisierung der KI und erkennt, dass die Kosten und die Effizienz der Ausführung von Modellen in der Produktion für Unternehmen zu den wichtigsten Anliegen werden.
Ergänzend zu den Chip- und Modellaktualisierungen erfolgt die Einführung von Cloud WAN. Google macht sein riesiges internes globales Netzwerk – das sich über mehr als drei Millionen Kilometer Glasfaser erstreckt und 42 Regionen über mehr als 200 Präsenzpunkte verbindet – effektiv zu einem Produkt und stellt es Unternehmenskunden direkt zur Verfügung.
Google verspricht, dass dieser Dienst im Vergleich zum öffentlichen Internet eine bis zu 40 % höhere Leistung bietet und die Gesamtbetriebskosten im Vergleich zu selbstverwalteten WANs um bis zu 40 % senkt. Das Angebot wird durch ein SLA mit einer Zuverlässigkeit von 99.99 % abgesichert. Cloud WAN zielt in erster Linie auf die Hochleistungskonnektivität zwischen Rechenzentren und die Anbindung von Zweigstellen-/Campus-Umgebungen ab und nutzt die bestehende Infrastruktur von Google, einschließlich des Network Connectivity Center.
Google nannte Nestlé und Citadel Securities als Vorreiter, doch dieser Schritt macht einen zentralen Infrastrukturwert zu einem echten Werkzeug. Er verwandelt eine interne Betriebsnotwendigkeit in ein Differenzierungsmerkmal und eine potenzielle Einnahmequelle und stellt sowohl traditionelle Telekommunikationsanbieter als auch die Netzwerkangebote konkurrierender Cloud-Plattformen wie AWS Cloud WAN und Azure Virtual WAN direkt infrage.

(Quelle: Google DeepMind)
Die Agentenoffensive: Brücken bauen mit ADK und A2A
Neben Infrastruktur und Kernmodellen legte Google Cloud Next 2025 einen außerordentlichen Schwerpunkt auf AI-Agenten und die Werkzeuge, um sie zu erstellen und zu verbinden. Die vorgestellte Vision geht weit über einfache Chatbots hinaus und sieht hochentwickelte Systeme vor, die in der Lage sind, autonom zu denken, zu planen und komplexe, mehrstufige Aufgaben auszuführen. Der Fokus verlagert sich eindeutig auf die Ermöglichung Multiagentensysteme, wo spezialisierte Agenten zusammenarbeiten, um umfassendere Ziele zu erreichen.
Um diese Vision zu verwirklichen, führte Google die Agent Development Kit (ADK)ADK ist ein Open-Source-Framework, das zunächst in Python verfügbar war und die Erstellung einzelner Agenten und komplexer Multi-Agenten-Systeme vereinfachen soll. Google behauptet, Entwickler könnten mit weniger als 100 Zeilen Code einen funktionsfähigen Agenten erstellen.
Zu den wichtigsten Funktionen gehören ein Code-First-Ansatz für präzise Steuerung, native Unterstützung für Multi-Agent-Architekturen, flexible Tool-Integration (einschließlich Unterstützung für die Modellkontextprotokoll, oder MCP), integrierte Evaluierungsfunktionen und Bereitstellungsoptionen von lokalen Containern bis hin zur verwalteten Vertex AI Agent Engine. ADK unterstützt außerdem bidirektionales Audio- und Video-Streaming für natürlichere, menschlichere Interaktionen. Ein begleitender „Agent Garden“ bietet einsatzbereite Beispiele und über 100 vorgefertigte Konnektoren für einen schnellen Entwicklungsstart.
Das eigentliche Herzstück der Agentenstrategie von Google ist jedoch die Agent2Agent (A2A) Protokoll. A2A ist ein neues, XNUMXh geöffnet Standard, der speziell für die Interoperabilität von Agenten entwickelt wurde. Sein grundlegendes Ziel ist es, KI-Agenten unabhängig vom verwendeten Framework (ADK, LangGraph, CrewAI usw.) oder dem Anbieter, der sie erstellt hat, die sichere Kommunikation, den Informationsaustausch und die Koordination von Aktionen zu ermöglichen. Damit wird die erhebliche Herausforderung isolierter KI-Systeme in Unternehmen direkt angegangen, da Agenten, die für unterschiedliche Aufgaben oder Abteilungen entwickelt wurden, oft nicht interagieren können.
Das Streben nach einem offenen A2A-Protokoll stellt ein erhebliches strategisches Wagnis dar. Anstatt ein proprietäres, geschlossenes Agenten-Ökosystem aufzubauen, versucht Google, den De-facto-Standard für die Agentenkommunikation zu etablieren. Dieser Ansatz opfert möglicherweise kurzfristige Bindungen zugunsten der Aussicht auf eine langfristige Führungsrolle im Ökosystem und – was entscheidend ist – die Reduzierung der Hürden, die die Einführung komplexer Multi-Agenten-Systeme in Unternehmen behindern.
Durch die Förderung der Offenheit möchte Google den gesamten Agentenmarkt beschleunigen und seine Cloud-Plattform und Tools als zentrale Vermittler positionieren.

So funktioniert A2A (Quelle: Google)
Neuausrichtung des Cloud-Rennens: Googles Wettbewerbsstrategie
Diese Ankündigungen stehen im Kontext des anhaltenden Cloud-Krieges. Google Cloud verzeichnet zwar ein beeindruckendes Wachstum, das oft durch den Einsatz von KI vorangetrieben wird, belegt aber nach wie vor den dritten Platz beim Marktanteil hinter AWS und Microsoft Azure. Cloud Next 2025 demonstrierte Googles Strategie, diesen Wettlauf neu auszurichten, indem es sich stark auf seine einzigartigen Stärken stützt und vermeintliche Schwächen behebt.
Googles wichtigste Alleinstellungsmerkmale waren deutlich zu erkennen. Die langfristige Investition in kundenspezifische Siliziumchips, die in der auf Inferenz ausgerichteten Ironwood TPU gipfelte, bietet eine deutliche Hardware-Unterscheidung im Vergleich zu den Trainium/Inferentia-Chips von AWS und dem Maia-Beschleuniger von Azure. Google betont konsequent seine führende Leistung pro Watt, ein potenziell entscheidender Faktor angesichts des steigenden Energiebedarfs von KI. Die Einführung von Cloud WAN macht Googles beispiellose globale Netzwerkinfrastruktur zu einer Waffe und bietet einen deutlichen Netzwerkvorteil.
Darüber hinaus nutzt Google weiterhin sein KI- und maschinelles Lernerbe, das aus DeepMinds Forschung und manifestiert sich in der umfassenden Vertex AI-Plattform, was seiner Marktwahrnehmung als führendes Unternehmen im Bereich KI und Datenanalyse entspricht.
Gleichzeitig signalisierte Google, dass es sich bemüht, die historischen Bedenken des Unternehmens auszuräumen. Die massive Übernahme des Cloud-Sicherheitsunternehmens Wiz im Wert von 32 Milliarden US-Dollar, das kurz vor Next angekündigt wurde, ist eine klare Absichtserklärung, die Sicherheitslage des Unternehmens zu stärken und die Benutzerfreundlichkeit und Erfahrung seiner Sicherheitsangebote zu verbessern – Bereiche, die für das Vertrauen in Unternehmen von entscheidender Bedeutung sind.
Durch die anhaltende Betonung von Branchenlösungen, Unternehmensbereitschaft und strategischen Partnerschaften soll die Marktwahrnehmung vom reinen Technologieanbieter zum vertrauenswürdigen Unternehmenspartner umgestaltet werden.
Insgesamt scheint sich Googles Strategie weniger darauf zu konzentrieren, AWS und Azure in allen Bereichen in gleicher Weise zu bedienen, sondern vielmehr darauf, seine einzigartigen Ressourcen – KI-Forschung, kundenspezifische Hardware, globales Netzwerk und Open-Source-Affinität – zu nutzen, um eine Führungsposition in dem zu erlangen, was das Unternehmen als die nächste entscheidende Welle des Cloud-Computings ansieht: KI im großen Maßstab, insbesondere effiziente Inferenz und hochentwickelte Agentensysteme.
Der Weg in die Zukunft für Google AI
Google Cloud Next 2025 präsentierte ein überzeugendes Konzept von Ambitionen und strategischer Kohärenz. Google setzt verstärkt auf künstliche Intelligenz und bündelt seine Ressourcen in speziell für das Inferenzzeitalter optimierten Siliziumchips (Ironwood), einem ausgewogenen und praxisorientierten KI-Modellportfolio (Gemini 2.5 Pro und Flash), seiner einzigartigen globalen Netzwerkinfrastruktur (Cloud WAN) und einem mutigen, offenen Ansatz für die wachsende Welt der KI-Agenten (ADK und A2A).
Die Veranstaltung zeigte ein Unternehmen, das seine umfassenden technologischen Fähigkeiten konsequent in ein umfassendes, differenziertes Unternehmensangebot für das KI-Zeitalter umsetzt. Die integrierte Strategie – Hardware, Software, Netzwerke und offene Standards – ist solide. Doch der Weg in die Zukunft erfordert mehr als nur Innovation.
Googles größte Herausforderung liegt möglicherweise weniger in der Technologie als vielmehr darin, die Trägheit der Unternehmen bei der Einführung von Technologien zu überwinden und dauerhaftes Vertrauen aufzubauen. Um diese ehrgeizigen Ankündigungen in nachhaltige Marktanteilsgewinne gegenüber etablierten Wettbewerbern umzusetzen, bedarf es einer reibungslosen Umsetzung, klarer Markteinführungsstrategien und der Fähigkeit, große Unternehmen konsequent davon zu überzeugen, dass Google Cloud die unverzichtbare Plattform für ihre KI-gesteuerte Zukunft ist. Die von Google angestrebte agentenbasierte Zukunft ist verlockend, ihre Verwirklichung hängt jedoch davon ab, diese komplexen Marktdynamiken zu meistern, lange nachdem das Rampenlicht von Las Vegas verblasst ist.












