Sztuczna inteligencja
Google i Intel Rozszerzają Współpracę w Zakresie Chipów dla Infrastruktury AI

Google i Intel ogłosiły wieloletnie rozszerzenie swojego partnerstwa w zakresie infrastruktury chmury, zobowiązując się do dalszego wdrożenia procesorów Intel Xeon w Google Cloud oraz rozszerzenia wspólnej разработки niestandardowych jednostek przetwarzania infrastruktury (IPU) zaprojektowanych dla obciążeń AI.
Umowa, ogłoszona 9 kwietnia, obejmuje dwa obszary: Google Cloud będzie nadal używał wielu generacji procesorów Intel Xeon, w tym najnowszych chipów Xeon 6, które napędzają instancje maszyn wirtualnych C4 i N4, do wnioskowania AI, koordynacji szkolenia i ogólnego przetwarzania. Oddzielnie, obie firmy rozszerzą wspólną разработку niestandardowych układów ASIC opartych na IPU, programowalnych przyspieszaczy, które odciążają funkcje sieciowe, magazynowania i bezpieczeństwa z host CPU w centrach danych.
Intel i Google współpracują nad IPU od 2022 roku, kiedy to uruchomiono pierwszą niestandardową IPU — o nazwie kodowej Mount Evans — wraz z instancjami C3 Google Cloud. Te IPU działają z prędkością 200 Gbps i wykonują zadania, takie jak sieciowanie wirtualne i operacje magazynowania, które w przeciwnym razie zużywałyby zasoby CPU przeznaczone dla obciążeń klientów. Następna generacja wspólnie opracowanych IPU nie została jeszcze udokumentowana, chociaż obserwatorzy branży oczekują wyższych prędkości ze względu na wymagania sieciowe nowoczesnych klastrów obliczeniowych AI.
Dlaczego Procesory CPU Nadal Są Ważne dla AI
Partnerstwo podkreśla zmianę w sposobie myślenia branży o infrastrukturze AI. Podczas gdy GPU i niestandardowe przyspieszacze, takie jak TPUs Google, obsługują ciężkie obliczenia szkolenia i uruchamiania modeli AI, procesory CPU pozostają niezbędne do orchestracji rozproszonych obciążeń, zarządzania potokami danych i uruchamiania infrastruktury wspierającej, która utrzymuje duże systemy AI w działaniu.
CEO Intel, Lip-Bu Tan, scharakteryzował umowę wokół tej rzeczywistości w komunikacie prasowym firmy: firma twierdzi, że skalowanie AI wymaga zbalansowanych systemów, w których procesory CPU i IPU współpracują z przyspieszaczami, a nie systemami zbudowanymi wyłącznie na przyspieszaczach.
Amin Vahdat, wiceprezes i główny technolog Google ds. infrastruktury AI, zauważył, że Intel jest partnerem od prawie dwóch dekad i że mapa drogowa Xeon daje Google pewność spełnienia wymagań wydajności i efektywności w przyszłości.
Umowa zostaje zawarta w czasie znaczących ograniczeń dostaw procesorów CPU. Intel obecnie zmaga się z niedoborami na swoich węzłach produkcyjnych Intel 10 i Intel 7, gdzie znajduje się większość produkcji Xeon. Czas oczekiwania na procesory serwerowe sięga sześciu miesięcy w niektórych przypadkach, a Intel potwierdził wzrost cen, ponieważ popyt przewyższa podaż. Firma priorytetowo traktuje procesory centrów danych nad procesorami konsumentów, aby rozwiązać problem.
Szerszy Krajobraz Chipów AI
Niestandardowy biznes ASIC Intel, który obejmuje współpracę w zakresie rozwoju IPU z Google, stał się znaczącym strumieniem dochodu. CFO Intel, David Zinsner, powiedział podczas konferencji finansowej Q4 2025, że dział niestandardowych chipów wzrósł o ponad 50% w 2025 roku i osiągnął roczny wskaźnik przychodu powyżej 1 miliarda dolarów.
Umowa ma również znaczenie konkurencyjne. Google obsługuje swój własny procesor CPU oparty na Architekturze Arm, Axion, zarówno dla obciążeń wewnętrznych, jak i dla klientów. Amazon buduje niestandardowe karty sieciowe Nitro przez swoją firmę Annapurna Labs, a Microsoft używa rozwiązań opartych na FPGA do podobnego odciążania infrastruktury. Kontynuując współpracę w zakresie rozwoju IPU z Intel, zamiast budować wyłącznie wewnętrznie, Google utrzymuje inny podejście niż jego rówieśnicy — jeden, który utrzymuje Intel w pętli jako dostawcę procesorów CPU i partnera niestandardowego układu półprzewodnikowego.
Dla Intel umowa stanowi ważne potwierdzenie jego strategii centrów danych pod kierownictwem Tana. Firma miała do czynienia z pytaniami o swoją relewantność, ponieważ dostawcy chmury coraz częściej projektują własne chipy. Utrzymywanie głębokiej relacji z niestandardowym układem półprzewodnikowym z jednym z największych operatorów chmury na świecie sygnalizuje, że możliwości produkcyjne i projektowe Intel pozostają konkurencyjne dla obciążeń krytycznych dla infrastruktury.
Nie ujawniono żadnych warunków finansowych. Wyścig zbrojeń AI między dostawcami chmury nie wykazuje żadnych oznak spowolnienia, a zabezpieczenie niezawodnych łańcuchów dostaw procesorów CPU i niestandardowych chipów staje się tak strategicznie ważne, jak pozyskiwanie GPU. Czy Intel będzie w stanie skalować swoją produkcję wystarczająco szybko, aby wykorzystać ten popyt — przy zarządzaniu trwającymi ograniczeniami dostaw — pozostaje otwartym pytaniem.












