Artificiell intelligens
Google och Intel utökar chip-samarbete för AI-infrastruktur

Google och Intel har meddelat en flerårig utvidgning av sitt molninfrastruktursamarbete, med löfte om fortsatt distribution av Intel Xeon-processorer över Google Cloud och utvidgad samutveckling av anpassade infrastrukturbehandlingsenheter (IPU) som är utformade för AI-arbetsbelastningar.
Den överenskommelsen, som meddelades den 9 april, omfattar två områden: Google Cloud kommer att fortsätta använda flera generationer av Intel Xeon-processorer, inklusive de senaste Xeon 6-chippen som driver dess C4- och N4-virtuella maskininstanser, för AI-inferens, träningskoordinering och allmänna beräkningar. Separat kommer de två företagen att utöka sin gemensamma utveckling av anpassade ASIC-baserade IPU, programmerbara accelereratorer som avlastar nätverks-, lagrings- och säkerhetsfunktioner från värd-CPU i datacenter.
Intel och Google har samarbetat om IPU sedan 2022, när den första anpassade IPU — med kodnamnet Mount Evans — lanserades tillsammans med Google Clouds C3-instanser. Dessa IPU fungerar vid 200 Gbps och hanterar uppgifter som virtuell nätverk och lagringsoperationer som annars skulle förbruka CPU-resurser avsedda för kundarbetsbelastningar. Nästa generation av samutvecklade IPU har inte detaljerats, men branschobservatörer förväntar sig högre hastigheter med tanke på de nätverkskrav som moderna AI-beräkningskluster har.
Varför CPU fortfarande är viktiga för AI
Samarbetet betonar en förändring i hur branschen tänker om AI-infrastruktur. Medan GPU och anpassade accelereratorer som Googles TPUs hanterar den tunga beräkningen av att träna och köra AI-modeller, förblir CPU viktiga för att orkestrera distribuerade arbetsbelastningar, hantera data pipelines och köra den underliggande infrastruktur som håller stora AI-system i drift.
Intel VD Lip-Bu Tan ramade avtalet kring denna verklighet i företagets pressmeddelande: företaget hävdar att skalning av AI kräver balanserade system där CPU och IPU arbetar tillsammans med accelereratorer, inte system byggda på accelereratorer ensamma.
Amin Vahdat, Googles SVP och chefsarkitekt för AI-infrastruktur, noterade att Intel har varit en partner i nästan två decennier och att Xeon-vägkarten ger Google förtroende för att möta prestanda- och effektivitetskrav i framtiden.
Avtalet kommer vid en tidpunkt med betydande CPU-levenskonstraints. Intel kämpar för närvarande med brist på sina Intel 10 och Intel 7-tillverkningsnoder, där större delen av sin Xeon-produktion ligger. Ledtider för server-CPU har sträckts till sex månader i vissa fall, och Intel har bekräftat prisökningar eftersom efterfrågan överstiger utbud. Företaget prioriterar datacenter-chippar framför konsumentprocessorer för att hantera knippen.
Den bredare AI-chip-landskapet
Intels anpassade ASIC-verksamhet, som inkluderar IPU-samutvecklingsarbetet med Google, har blivit en betydande inkomstkälla. Intel CFO David Zinsner sa under företagets Q4 2025-årsredovisning att den anpassade chip-avdelningen växte mer än 50% 2025 och avslutade det fjärde kvartalet med en årlig omsättningshastighet på över 1 miljard dollar.
Avtalet är också viktigt ur konkurrenssynpunkt. Google kör sin egen Arm-baserade CPU, Axion, för både interna och kundorienterade arbetsbelastningar. Amazon bygger anpassade Nitro NIC via sin Annapurna Labs-division, och Microsoft använder FPGA-baserade lösningar för liknande infrastrukturavlastning. Genom att fortsätta samutveckla IPU med Intel snarare än bygga helt inomhus, behåller Google en annan strategi än sina hyperscaler-jämnstora — en som håller Intel i loopet som både CPU-leverantör och anpassad kiselpartner.
För Intel ger partnerskapet en högprofilerad validering av dess datacenter-strategi under Tans ledning. Företaget har mött frågor om sin relevans när molnleverantörer alltmer utformar sina egna chippar. Att upprätthålla ett djupt anpassat kiselförhållande med en av världens största molnoperatörer signalerar att Intels foundry- och designförmåga förblir konkurrenskraftig för infrastruktur-kritiska arbetsbelastningar.
Inga finansiella villkor avslöjades. AI-vapenkapplöpningen bland molnleverantörer visar inga tecken på att sakta ner, och att säkra tillförlitliga CPU- och anpassade chip-leveranskedjor blir lika strategiskt viktigt som GPU-procurement. Om Intel kan skala upp sin tillverkning tillräckligt snabbt för att kapitalisera på denna efterfrågan — samtidigt som de hanterar sina pågående leveransbegränsningar — förblir den öppna frågan.












