Connect with us

Künstliche Intelligenz

Google und Intel erweitern Chip-Partnerschaft für KI-Infrastruktur

mm

Google und Intel haben eine mehrgjährige Erweiterung ihrer Cloud-Infrastruktur-Partnerschaft angekündigt und sich zu einer weiteren Bereitstellung von Intel Xeon-Prozessoren in Google Cloud und einer erweiterten gemeinsamen Entwicklung von benutzerdefinierten Infrastruktur-Verarbeitungseinheiten (IPUs) für KI-Arbeitslasten verpflichtet.

Die Vereinbarung, die am 9. April angekündigt wurde, umfasst zwei Bereiche: Google Cloud wird mehrere Generationen von Intel Xeon-Prozessoren, einschließlich der neuesten Xeon-6-Chips, die seine C4- und N4-VM-Instanzen antreiben, für KI-Schlußfolgerung, Trainingskoordination und allgemeine Rechenleistung weiterhin verwenden. Separat werden die beiden Unternehmen ihre gemeinsame Entwicklung von benutzerdefinierten ASIC-basierten IPUs, programmierbaren Beschleunigern, die Netzwerk-, Speicher- und Sicherheitsfunktionen von Host-CPU in Rechenzentren entlasten, erweitern.

Intel und Google arbeiten seit 2022 an IPUs zusammen, als die erste benutzerdefinierte IPU – codenamed Mount Evans – zusammen mit Google Clouds C3-Instanzen veröffentlicht wurde. Diese IPUs arbeiten mit 200 Gbps und übernehmen Aufgaben wie virtuelles Networking und Speicheroperationen, die sonst CPU-Ressourcen für Kundenarbeitslasten verbrauchen würden. Die nächste Generation von gemeinsam entwickelten IPUs wurde noch nicht bekannt gegeben, obwohl Branchenbeobachter aufgrund der Netzwerkanforderungen moderner KI-Rechencluster höhere Geschwindigkeiten erwarten.

Warum CPUs für KI noch wichtig sind

Die Partnerschaft unterstreicht eine Veränderung in der Art und Weise, wie die Branche über KI-Infrastruktur denkt. Während GPUs und benutzerdefinierte Beschleuniger wie Google’s TPUs die schwere Berechnung von Trainings- und Ausführung von KI-Modellen übernehmen, bleiben CPUs für die Orchestrierung von verteilten Arbeitslasten, die Verwaltung von Datenpipelines und die Ausführung der unterstützenden Infrastruktur, die große KI-Systeme betriebsbereit hält, unerlässlich.

Intel-CEO Lip-Bu Tan betonte in der Pressemitteilung des Unternehmens, dass die Firma argumentiert, dass die Skalierung von KI ausgeglichene Systeme erfordert, in denen CPUs und IPUs neben Beschleunigern und nicht nur auf Beschleunigern basierende Systeme arbeiten.

Amin Vahdat, Google’s SVP und Chief Technologist für KI-Infrastruktur, hob hervor, dass Intel seit fast zwei Jahrzehnten ein Partner ist und dass der Xeon-Roadmap Google Vertrauen in die Erfüllung von Leistungs- und Effizienzanforderungen in Zukunft gibt.

Die Vereinbarung kommt zu einem Zeitpunkt, an dem es erhebliche CPU-Lieferengpässe gibt. Intel kämpft derzeit mit Engpässen in seinen Intel-10- und Intel-7-Fertigungsknoten, wo der Großteil seiner Xeon-Produktion angesiedelt ist. Lieferzeiten für Server-CPU haben sich in einigen Fällen auf sechs Monate ausgedehnt, und Intel hat Preiserhöhungen bestätigt, da die Nachfrage das Angebot übersteigt. Das Unternehmen priorisiert Rechenzentrumschips gegenüber Consumer-Prozessoren, um den Engpass zu bewältigen.

Die breitere KI-Chip-Landschaft

Intels benutzerdefiniertes ASIC-Geschäft, das die IPU-Co-Entwicklung mit Google umfasst, ist zu einem bedeutenden Umsatzstrom geworden. Intel-CFO David Zinsner sagte während des Q4-2025-Ergebnisspieles des Unternehmens, dass die benutzerdefinierte Chip-Sparte 2025 um mehr als 50 % gewachsen ist und mit einem jährlichen Umsatz von über 1 Milliarde Dollar aus dem vierten Quartal ausgestiegen ist.

Die Vereinbarung ist auch aus wettbewerbsbezogener Sicht wichtig. Google betreibt seinen eigenen Arm-basierten CPU, Axion, für interne und kundenorientierte Arbeitslasten. Amazon baut benutzerdefinierte Nitro-NICs über seine Annapurna-Labs-Sparte, und Microsoft verwendet FPGA-basierte Lösungen für ähnliche Infrastruktur-Entlastung. Indem Google weiterhin IPUs mit Intel co-entwickelt, anstatt sie vollständig in-house zu bauen, verfolgt es einen anderen Ansatz als seine Hyperscaler-Peers – einen, der Intel als CPU-Lieferant und benutzerdefinierter Silizium-Partner im Spiel hält.

Für Intel stellt die Partnerschaft eine hochkarätige Validierung seiner Rechenzentrumsstrategie unter Tans Führung dar. Das Unternehmen hat Fragen zu seiner Relevanz für Cloud-Anbieter, die ihre eigenen Chips entwerfen, gekennzeichnet. Die Aufrechterhaltung einer tiefen benutzerdefinierten Silizium-Beziehung mit einem der größten Cloud-Betreiber der Welt signalisiert, dass Intels Foundry- und Designfähigkeiten für infrastrukturkritische Arbeitslasten weiterhin wettbewerbsfähig sind.

Es wurden keine finanziellen Bedingungen offengelegt. Der KI-Wettkampf unter den Cloud-Anbietern zeigt keine Anzeichen einer Verlangsamung, und die Sicherung zuverlässiger CPU- und benutzerdefinierter Chip-Lieferketten wird genauso strategisch wichtig wie die Beschaffung von GPUs. Ob Intel seine Fertigung schnell genug skalieren kann, um diese Nachfrage zu decken – während es seine anhaltenden Lieferengpässe bewältigt – bleibt die offene Frage.

Alex McFarland ist ein KI-Journalist und Schriftsteller, der die neuesten Entwicklungen im Bereich der künstlichen Intelligenz erforscht. Er hat mit zahlreichen KI-Startups und Veröffentlichungen weltweit zusammengearbeitet.