Ankündigungen
Google Cloud Next 2025: Verdoppelung der Bemühungen um KI mit Silizium, Software und einem offenen Agenten-Ökosystem

Las Vegas ist Gastgeber von Google Cloud Next 2025, einer Veranstaltung, die zu einem kritischen Moment für die Technologiebranche stattfindet. Der Wettbewerb um künstliche Intelligenz unter den Cloud-Riesen – Amazon Web Services (AWS), Microsoft Azure und Google Cloud – eskaliert rasch. Google, oft als dritter Anbieter dargestellt, trotz seiner beeindruckenden technologischen Fähigkeiten und tiefen Wurzeln in der KI-Forschung, nutzte die Cloud-Next-Bühne, um eine umfassende und aggressive Strategie zu artikulieren, die direkt auf den Unternehmens-KI-Markt abzielt.
Die Erzählung, die von Google Cloud-CEO Thomas Kurian und von Google- und Alphabet-CEO Sundar Pichai wiederholt wurde, konzentrierte sich darauf, die KI-Transformation von einer bloßen Möglichkeit zu einer greifbaren Realität zu machen. Google betonte seinen behaupteten Schwung, indem es über 3.000 Produktverbesserungen im vergangenen Jahr, ein zwanzigfaches Wachstum der Vertex-AI-Plattform seit der vorherigen Cloud-Next-Veranstaltung, mehr als vier Millionen Entwickler, die aktiv mit seiner Gemini-Modellfamilie bauen, und präsentierte über 500 Kunden-Erfolgsgeschichten während der Konferenz.
Google Cloud Next 2025 war jedoch mehr als nur eine Präsentation von inkrementellen Updates oder beeindruckenden Metriken. Es enthüllte auch einen mehrschichtigen Angriff. Durch den Start leistungsstarker, inferenzoptimierter benutzerdefinierter Siliziumchips (der Ironwood-TPU), die Feinabstimmung seines Flaggschiff-KI-Modellportfolios mit Fokus auf Praktikabilität (Gemini 2.5 Flash), die Öffnung seines umfassenden globalen Netzwerkinfrastruktur für Unternehmen (Cloud-WAN) und die Platzierung einer bedeutenden, strategischen Wette auf ein offenes, interoperables Ökosystem für KI-Agents (das Agent2Agent-Protokoll), positioniert Google sich aggressiv, um die nächste evolutionäre Phase von Unternehmens-KI zu definieren – was das Unternehmen zunehmend als die „agentic-Ära“ bezeichnet.
Ironwood, Gemini und der Netzwerkeffekt
Zentral für Googles KI-Ambitionen ist seine anhaltende Investition in benutzerdefiniertes Silizium. Der Star von Cloud Next 2025 war Ironwood, die siebte Generation von Googles Tensor Processing Unit (TPU). Kritisch ist Ironwood als erster TPU präsentiert, der explizit für KI-Inferenz – den Prozess, bei dem trainierte Modelle verwendet werden, um Vorhersagen zu treffen oder Ausgaben in realen Anwendungen zu generieren – konzipiert.
Die Leistungsansprüche für Ironwood sind erheblich. Google erläuterte Konfigurationen, die bis zu einer immensen 9.216 flüssigkeitsgekühlten Chips skalieren, die innerhalb eines Pods vernetzt sind. Diese größte Konfiguration soll eine atemberaubende 42,5 Exaflops Rechenleistung liefern. Google behauptet, dies repräsentiere mehr als 24-mal die pro-Pod-Rechenleistung von El Capitan, der derzeit leistungsstärksten Supercomputer der Welt.
Während dies beeindruckend ist, ist es wichtig zu beachten, dass solche Vergleiche oft unterschiedliche numerische Genauigkeiten beinhalten, was eine direkte Äquivalenz komplex macht. Dennoch positioniert Google Ironwood als eine Verbesserung von mehr als zehnmal gegenüber seiner vorherigen Hochleistungs-TPU-Generation.
Jenseits der reinen Rechenleistung bietet Ironwood erhebliche Fortschritte in Speicher und Interkonnektivität im Vergleich zu seinem Vorgänger, Trillium (TPU v6).
Vielleicht ebenso wichtig ist der Fokus auf Energieeffizienz. Google behauptet, Ironwood liefere doppelte Leistung pro Watt im Vergleich zu Trillium und sei fast 30-mal energiesparender als sein erstes Cloud-TPU von 2018. Dies adressiert direkt die wachsende Einschränkung der Stromverfügbarkeit bei der Skalierung von Rechenzentren für KI.
Vergleich der Google-TPU-Generation: Ironwood (v7) vs. Trillium (v6)
| Feature | Trillium (TPU v6) | Ironwood (TPU v7) | Verbesserungsfaktor |
| Primärfokus | Training & Inferenz | Inferenz | Spezialisierung |
| Peak-Rechenleistung/Chip | Nicht direkt vergleichbar (verschiedene Generation) | 4.614 TFLOPs (FP8 wahrscheinlich) | – |
| HBM-Kapazität/Chip | 32 GB (geschätzt basierend auf 6x-Behauptung) | 192 GB | 6x |
| HBM-Bandbreite/Chip | ~1,6 Tbps (geschätzt basierend auf 4,5x) | 7,2 Tbps | 4,5x |
| ICI-Bandbreite (bidirektional) | ~0,8 Tbps (geschätzt basierend auf 1,5x) | 1,2 Tbps | 1,5x |
| Leistung/Watt im Vergleich zur vorherigen Generation | Basis für den Vergleich | 2x im Vergleich zu Trillium | 2x |
| Leistung/Watt im Vergleich zu TPU v1 (2018) | ~15x (geschätzt) | Fast 30x | ~2x im Vergleich zu Trillium |
Hinweis: Einige Trillium-Zahlen sind basierend auf Googles behaupteten Verbesserungsfaktoren für Ironwood geschätzt. Der Vergleich der Spitzenleistung ist komplex aufgrund generationaler Unterschiede und wahrscheinlicher Präzisionsvariationen.
Ironwood bildet einen Schlüsselteil von Googles „AI-Hypercomputer“-Konzept – eine Architektur, die optimiertes Hardware (einschließlich TPUs und GPUs wie Nvidias Blackwell und das kommende Vera Rubin), Software (wie die Pathways-Verteilte-ML-Laufzeit), Speicher (Hyperdisk-Exapools, Managed-Lustre) und Netzwerk integriert, um anspruchsvolle KI-Arbeitslasten zu bewältigen.
Auf der Modellfront stellte Google Gemini 2.5 Flash vor, eine strategische Gegenposition zum High-End-Gemini 2.5 Pro. Während Pro maximale Qualität für komplexe Argumentationen anvisiert, ist Flash explizit für geringe Latenz und Kosteneffizienz optimiert, was es für hochvolumige, Echtzeit-Anwendungen wie Kundeninteraktionen oder schnelle Zusammenfassungen geeignet macht.
Gemini 2.5 Flash verfügt über einen dynamischen „Denkhaushalt“, der die Verarbeitung basierend auf der Abfragekomplexität anpasst, sodass Benutzer die Balance zwischen Geschwindigkeit, Kosten und Genauigkeit anpassen können. Diese gleichzeitige Konzentration auf einen Hochleistungs-Inferenz-Chip (Ironwood) und ein kosteneffizientes Modell (Gemini Flash) unterstreicht Googles Schub in Richtung praktischer Operationalisierung von KI, indem er erkennt, dass die Kosten und Effizienz des Betriebs von Modellen in der Produktion zu wichtigen Anliegen für Unternehmen werden.
Ergänzend zu den Silizium- und Modellaktualisierungen ist der Start von Cloud WAN. Google macht seine massive interne globale Netzinfrastruktur – über zwei Millionen Meilen Glasfaser, verbindet 42 Regionen über mehr als 200 Präsenzpunkte – direkt für Unternehmenskunden verfügbar.
Google behauptet, dieser Dienst könne bis zu 40 % schnellere Leistung im Vergleich zum öffentlichen Internet liefern und die Gesamtkosten im Vergleich zu selbst verwalteten WANs um bis zu 40 % senken, unterstützt durch eine 99,99 % Zuverlässigkeits-SLA. Primär auf Hochleistungs-Verbindungen zwischen Rechenzentren und die Verbindung von Filial-/Campus-Umgebungen abzielend, nutzt Cloud WAN Googles bestehende Infrastruktur, einschließlich des Network Connectivity Center.
Während Google Nestlé und Citadel Securities als frühe Anwender nannte, ist dieser Schritt grundlegend, um eine Kerninfrastruktur in einen Wettbewerbsvorteil und potenziellen Umsatzstrom umzuwandeln, der traditionelle Telekommunikationsanbieter und die Netzwerkangebote von Rivalen wie AWS Cloud WAN und Azure Virtual WAN direkt herausfordert.

(Quelle: Google DeepMind)
Der Agenten-Angriff: Brücken bauen mit ADK und A2A
Jenseits der Infrastruktur und der Kernmodelle legte Google Cloud Next 2025 einen außergewöhnlichen Fokus auf KI-Agents und die Werkzeuge, um sie zu bauen und zu verbinden. Die vorgestellte Vision reicht weit über einfache Chatbots hinaus und stellt sich sophistizierte Systeme vor, die autonomes Denken, Planen und Ausführen komplexer, mehrschrittiger Aufgaben ermöglichen. Der Fokus verschiebt sich deutlich in Richtung der Ermöglichung von Mehr-Agenten-Systemen, in denen spezialisierte Agents zusammenarbeiten, um umfassendere Ziele zu erreichen.
Um diese Vision zu erleichtern, stellte Google das Agent Development Kit (ADK) vor. ADK ist ein Open-Source-Framework, das ursprünglich in Python verfügbar ist und darauf abzielt, die Erstellung von einzelnen Agents und komplexen Mehr-Agenten-Systemen zu vereinfachen. Google behauptet, dass Entwickler einen funktionsfähigen Agenten mit weniger als 100 Codezeilen bauen können.
Wichtige Funktionen umfassen einen code-first-Ansatz für präzise Kontrolle, native Unterstützung für Mehr-Agenten-Architekturen, flexible Werkzeugintegration (einschließlich Unterstützung für das Model Context Protocol, oder MCP), integrierte Bewertungsfähigkeiten und Bereitstellungsoptionen, die von lokalen Containern bis hin zum verwalteten Vertex-AI-Agent-Engine reichen. ADK unterstützt auch einzigartig bidirektionale Audio- und Video-Streaming für natürlichere, menschlichere Interaktionen. Ein begleitender „Agenten-Garten“ bietet vorbereitete Beispiele und über 100 vorgefertigte Konnektoren, um die Entwicklung zu beschleunigen.
Der wahre Mittelpunkt von Googles Agenten-Strategie ist jedoch das Agent2Agent (A2A)-Protokoll. A2A ist ein neuer, offener Standard, der explizit für die Interoperabilität von Agents konzipiert ist. Sein grundlegendes Ziel ist es, KI-Agents unabhängig davon, mit welchem Framework sie erstellt wurden (ADK, LangGraph, CrewAI usw.) oder welcher Anbieter sie erstellt hat, sicher miteinander kommunizieren, Informationen austauschen und Aktionen koordinieren zu lassen. Dies geht direkt auf die erhebliche Herausforderung von isolierten KI-Systemen innerhalb von Unternehmen ein, in denen Agents für verschiedene Aufgaben oder Abteilungen oft nicht interagieren können.
Dieser Schub für ein offenes A2A-Protokoll repräsentiert einen bedeutenden strategischen Wettbewerb. Anstatt ein proprietäres, geschlossenes Agenten-Ökosystem aufzubauen, versucht Google, den De-facto-Standard für Agenten-Kommunikation zu etablieren. Dieser Ansatz opfert möglicherweise kurzfristige Bindung für die Aussicht auf langfristige Ökosystem-Führung und, entscheidend, reduziert die Reibung, die die Unternehmensadoption komplexer Mehr-Agenten-Systeme behindert.
Indem Google Offenheit fördert, zielt es darauf ab, den gesamten Agenten-Markt zu beschleunigen und seine Cloud-Plattform und Tools als zentrale Vermittler zu positionieren.

Wie A2A funktioniert (Quelle: Google)
Neukalibrierung des Cloud-Wettbewerbs: Googles Wettbewerbs-Manöver
Diese Ankündigungen landen genau im Kontext des anhaltenden Cloud-Wettbewerbs. Google Cloud, obwohl es beeindruckendes Wachstum zeigt, oft durch KI-Adoption angetrieben, hält immer noch den dritten Platz in Bezug auf Marktanteil, hinter AWS und Microsoft Azure. Cloud Next 2025 zeigte Googles Strategie, diesen Wettbewerb durch eine starke Betonung seiner einzigartigen Stärken und die Ansprache wahrgenommener Schwächen neu zu justieren.
Googles wichtigste Differenzierungsmerkmale waren voll auf der Bühne. Die langfristige Investition in benutzerdefiniertes Silizium, die in der inferenzorientierten Ironwood-TPU gipfelt, bietet eine einzigartige Hardware-Narrative im Vergleich zu AWS’ Trainium/Inferentia-Chips und Azures Maia-Accelerator. Google betont konsistent die Führerschaft bei der Leistung pro Watt, ein potenziell entscheidender Faktor, da die Energieanforderungen von KI in die Höhe schießen. Der Start von Cloud WAN nutzt Googles unübertroffene globale Netzinfrastruktur, um einen deutlichen Netzwerkvorteil zu bieten.
Darüber hinaus setzt Google weiterhin auf seine KI- und Machine-Learning-Erfahrung, die aus DeepMinds Forschung stammt und in der umfassenden Vertex-AI-Plattform manifestiert ist, was mit seiner Marktwahrnehmung als Führer in KI und Datenanalyse übereinstimmt.
Gleichzeitig signalisierte Google Bemühungen, historische Unternehmensbedenken zu adressieren. Der massive 32-Milliarden-Dollar-Erwerb des Cloud-Sicherheitsunternehmens Wiz, der kurz vor Next angekündigt wurde, ist ein deutliches Statement des Willens, seine Sicherheitsposition zu stärken und die Benutzerfreundlichkeit und Erfahrung seiner Sicherheitsangebote zu verbessern – Bereiche, die für das Vertrauen von Unternehmen entscheidend sind.
Der fortgesetzte Fokus auf Branchenlösungen, Unternehmensreife und strategische Partnerschaften zielt darauf ab, die Marktwahrnehmung von einem reinen Technologieanbieter zu einem vertrauenswürdigen Unternehmenspartner umzuwandeln.
Insgesamt erscheint Googles Strategie weniger darauf ausgerichtet, AWS und Azure Dienst für Dienst über den gesamten Bereich hinweg zu entsprechen, und konzentriert sich mehr darauf, seine einzigartigen Vermögenswerte – KI-Forschung, benutzerdefiniertes Hardware, globales Netz und Offenheit – zu nutzen, um die Führung in dem, was es als die nächste entscheidende Welle der Cloud-Computing bezeichnet, zu etablieren: KI im großen Maßstab, insbesondere effiziente Inferenz und sophistizierte Agenten-Systeme.
Der Weg vorne für Google KI
Google Cloud Next 2025 präsentierte eine überzeugende Erzählung von Ehrgeiz und strategischer Kohärenz. Google verdoppelt seine Bemühungen um künstliche Intelligenz, indem es seine Ressourcen über benutzerdefiniertes Silizium für die Inferenz-Ära (Ironwood), ein ausgewogenes und praktisches KI-Modell-Portfolio (Gemini 2.5 Pro und Flash), seine einzigartige globale Netzwerkinfrastruktur (Cloud WAN) und einen mutigen, offenen Ansatz für die aufkommende Welt von KI-Agents (ADK und A2A) mobilisiert.
Letztendlich zeigte die Veranstaltung ein Unternehmen, das aggressiv daran arbeitet, seine tiefen technologischen Fähigkeiten in ein umfassendes, differenziertes Unternehmensangebot für die KI-Ära zu übersetzen. Die integrierte Strategie – Hardware, Software, Netzwerk und offene Standards – ist solide. Dennoch liegt der Weg vorne nicht nur in der Technologie, sondern auch darin, Unternehmensadoptionsträgheit zu überwinden und anhaltendes Vertrauen aufzubauen. Die Umwandlung dieser ehrgeizigen Ankündigungen in anhaltende Marktanteilsgewinne gegen tief verwurzelte Konkurrenten erfordert makellose Ausführung, klare Go-to-Market-Strategien und die Fähigkeit, kontinuierlich große Organisationen davon zu überzeugen, dass Google Cloud die unverzichtbare Plattform für ihre KI-getriebene Zukunft ist. Die von Google imaginierte agentische Zukunft ist überzeugend, aber ihre Verwirklichung hängt von der Navigation dieser komplexen Marktdynamiken ab, lange nachdem der Las-Vegas-Spotlight erloschen ist.












