Kunstig intelligens
Google og Intel udvider chip-samarbejde til AI-infrastruktur

Google og Intel har annonceret en flerårig udvidelse af deres cloud-infrastruktur-samarbejde, hvor de har forpligtet sig til fortsat udrulning af Intel Xeon-processorer på tværs af Google Cloud og udvidet fællesudvikling af brugerdefinerede infrastrukturbehandlingsenheder (IPUs) designet til AI-arbejdsbelastninger.
Den aftale, der blev annonceret den 9. april, dækker to områder: Google Cloud vil fortsætte med at bruge flere generationer af Intel Xeon-processorer, herunder de seneste Xeon 6-chip, der driver deres C4- og N4-virtuelle maskineeksempler, til AI-slutsats, træningskoordination og almindelig formål computing. Separat vil de to selskaber udvide deres fællesudvikling af brugerdefinerede ASIC-baserede IPUs, programmerbare acceleratorer, der afhælder netværks-, lager- og sikkerhedsfunktioner fra værts-CPU’er i datacentre.
Intel og Google har arbejdet sammen om IPUs siden 2022, da den første brugerdefinerede IPU — med kodenavnet Mount Evans — blev lanceret sammen med Google Clouds C3-eksempler. Disse IPUs opererer med 200 Gbps og håndterer opgaver som virtuelt netværk og lageroperationer, der ellers ville forbruge CPU-resurser, der er tiltænkt kunde-arbejdsbelastninger. Den næste generation af fællesudviklede IPUs er ikke blevet detaljeret, selv om branchens iagttagere forventer højere hastigheder på grund af netværkskravene til moderne AI-compute-klynger.
Hvorfor CPUs stadig er vigtige for AI
Samarbejdet fremhæver en ændring i, hvordan branchen tænker om AI-infrastruktur. Mens GPUs og brugerdefinerede acceleratorer som Google’s TPUs håndterer den tungeste beregning af træning og kørsel af AI-modeller, er CPUs stadig essentielle for at orkestrere distribuerede arbejdsbelastninger, håndtere data-pipelines og køre den underliggende infrastruktur, der holder store AI-systemer operative.
Intel-direktør Lip-Bu Tan ramte aftalen omkring denne virkelighed i selskabets pressemeddelelse: Selskabet argumenterer for, at opskalering af AI kræver balancerede systemer, hvor CPUs og IPUs arbejder sammen med acceleratorer, ikke systemer bygget på acceleratorer alene.
Amin Vahdat, Google’s SVP og Chief Technologist for AI-infrastruktur, bemærkede, at Intel har været en partner i næsten to årtier, og at Xeon-vejviseren giver Google tillid til at møde ydelses- og effektivitetskravene fremover.
Aftalen kommer på et tidspunkt med betydelige CPU-tilgangsbegrænsninger. Intel kæmper i øjeblikket med mangel på tværs af sine Intel 10- og Intel 7-fabrikationsnoder, hvor størstedelen af Xeon-produktionen befinder sig. Leveringstider for server-CPU’er er strakt til seks måneder i visse tilfælde, og Intel har bekræftet prisstigninger, da efterspørgslen overgår tilgangen. Selskabet prioriterer datacenter-chips over forbrugerprocessorer for at tackle knapheden.
Det bredere AI-chip-landskab
Intels brugerdefinerede ASIC-forretning, der inkluderer IPU-samarbejdet med Google, er blevet en betydelig indtægtsstrøm. Intel CFO David Zinsner sagde under selskabets Q4 2025-årsregnskabsopkald, at den brugerdefinerede chip-division voksede mere end 50% i 2025 og lukkede fjerde kvartal med en årlig omsætningsrate på over 1 milliard dollars.
Aftalen er også vigtig konkurrencemæssigt. Google driver sin egen Arm-baserede CPU, Axion, til både interne og kundeorienterede arbejdsbelastninger. Amazon bygger brugerdefinerede Nitro NIC’er gennem sin Annapurna Labs-division, og Microsoft bruger FPGA-baserede løsninger til lignende infrastruktur-afhældning. Ved at fortsætte med at udvikle IPUs med Intel i stedet for at bygge helt internt, fastholder Google en anden tilgang end sine hyperscaler-peers — en, der holder Intel i løkken som både CPU-leverandør og brugerdefineret silicumpartner.
For Intel giver partnerskabet en højprofileret validering af selskabets datacenter-strategi under Tans ledelse. Selskabet har stået over for spørgsmål om sin relevans, da cloud-udbydere i stigende grad designer deres egne chips. At fastholde et dybt brugerdefineret silicumsamarbejde med en af verdens største cloud-operatører signalerer, at Intels foundry- og designkapaciteter stadig er konkurrencedygtige for infrastruktur-kritiske arbejdsbelastninger.
Ingen finansielle vilkår blev offentliggjort. AI-våbenkapløbet blandt cloud-udbydere viser ingen tegn på at afsløre, og sikring af pålidelige CPU- og brugerdefinerede chip-forsyningskæder bliver lige så strategisk vigtigt som GPU-indkøb. Om Intel kan skale sin produktion hurtigt nok til at kapitalisere på denne efterspørgsel — samtidig med at de håndterer deres pågældende tilgangsbegrænsninger — forbliver det åbne spørgsmål.












