Connect with us

Intelligenza artificiale

Google e Intel Espandono la Partnership per le Infrastrutture di Intelligenza Artificiale

mm

Google e Intel hanno annunciato un’estensione pluriennale della loro partnership per le infrastrutture cloud, impegnandosi a continuare la distribuzione dei processori Intel Xeon su Google Cloud e a sviluppare ulteriormente unità di elaborazione personalizzate (IPU) progettate per carichi di lavoro di intelligenza artificiale.

L’accordo, annunciato il 9 aprile, copre due aree: Google Cloud continuerà a utilizzare più generazioni di processori Intel Xeon, compresi gli ultimi chip Xeon 6 che alimentano le istanze di macchina virtuale C4 e N4, per l’inferenza di intelligenza artificiale, la coordinazione dell’addestramento e il calcolo di uso generico. Separatamente, le due società estenderanno lo sviluppo congiunto di IPU personalizzati basati su ASIC, acceleratori programmabili che scaricano le funzioni di rete, archiviazione e sicurezza dai CPU host nei data center.

Intel e Google collaborano allo sviluppo di IPU dal 2022, quando è stato lanciato il primo IPU personalizzato – codice Mount Evans – insieme alle istanze C3 di Google Cloud. Questi IPU operano a 200 Gbps e gestiscono attività come la rete virtuale e le operazioni di archiviazione che altrimenti consumerebbero risorse CPU destinate ai carichi di lavoro dei clienti. La prossima generazione di IPU congiuntamente sviluppati non è stata dettagliata, sebbene gli osservatori del settore si aspettino velocità più elevate date le esigenze di rete dei moderni cluster di calcolo di intelligenza artificiale.

Perché i CPU Sono Ancora Importanti per l’Intelligenza Artificiale

La partnership evidenzia un cambiamento nel modo in cui l’industria pensa alle infrastrutture di intelligenza artificiale. Mentre le GPU e gli acceleratori personalizzati come i TPUs di Google gestiscono il calcolo pesante dell’addestramento e dell’esecuzione dei modelli di intelligenza artificiale, i CPU rimangono essenziali per orchestrare i carichi di lavoro distribuiti, gestire le pipeline di dati e eseguire l’infrastruttura di supporto che mantiene i grandi sistemi di intelligenza artificiale operativi.

Il CEO di Intel, Lip-Bu Tan, ha inquadrato l’accordo intorno a questa realtà nel comunicato stampa della società: l’azienda sostiene che la scalabilità dell’intelligenza artificiale richiede sistemi equilibrati in cui i CPU e gli IPU lavorano insieme agli acceleratori, e non sistemi costruiti solo su acceleratori.

Amin Vahdat, SVP e Chief Technologist per l’Infrastruttura di Intelligenza Artificiale di Google, ha notato che Intel è stato un partner per quasi due decenni e che la roadmap di Xeon dà a Google la fiducia di soddisfare le esigenze di prestazioni ed efficienza in futuro.

L’accordo arriva in un momento di significative limitazioni nell’offerta di CPU. Intel sta attualmente lottando con carenze su tutti i suoi nodi di produzione Intel 10 e Intel 7, dove si trova la maggior parte della produzione di Xeon. I tempi di consegna per i CPU server si sono allungati a sei mesi in alcuni casi, e Intel ha confermato aumenti di prezzo poiché la domanda supera l’offerta. L’azienda sta dando priorità ai chip per i data center rispetto ai processori per i consumatori per affrontare la crisi.

Il Più Ampio Paesaggio dei Chip di Intelligenza Artificiale

L’attività di chip personalizzati di Intel, che include il lavoro di sviluppo congiunto di IPU con Google, è diventata una fonte di entrate significativa. Il CFO di Intel, David Zinsner, ha detto durante la conference call dei risultati del quarto trimestre 2025 che la divisione di chip personalizzati è cresciuta più del 50% nel 2025 e ha chiuso il quarto trimestre con un tasso di entrate annualizzato superiore a 1 miliardo di dollari.

L’accordo è anche importante a livello competitivo. Google opera il proprio processore basato su Arm, Axion, per carichi di lavoro interni e per i clienti. Amazon costruisce NIC personalizzati Nitro attraverso la sua divisione Annapurna Labs, e Microsoft utilizza soluzioni basate su FPGA per lo scaricamento dell’infrastruttura. Continuando a sviluppare congiuntamente gli IPU con Intel invece di costruirli interamente in-house, Google mantiene un approccio diverso rispetto ai suoi pari hyperscaler – uno che mantiene Intel nel loop come fornitore di CPU e partner di silicio personalizzato.

Per Intel, la partnership fornisce una validazione di alto profilo della sua strategia per i data center sotto la leadership di Tan. L’azienda ha affrontato domande sulla sua rilevanza poiché i provider cloud progettano sempre più i propri chip. Mantenere una profonda relazione di silicio personalizzato con uno dei più grandi operatori cloud del mondo segnala che le capacità di foundry e design di Intel rimangono competitive per carichi di lavoro critici per l’infrastruttura.

Non sono stati divulgati termini finanziari. La corsa alle armi di intelligenza artificiale tra i provider cloud non mostra segni di rallentamento, e assicurarsi catene di approvvigionamento di CPU e chip personalizzati affidabili sta diventando strategicamente importante quanto l’approvvigionamento di GPU. Se Intel possa scalare la sua produzione abbastanza rapidamente per capitalizzare su questa domanda – gestendo al contempo le sue attuali limitazioni di offerta – rimane la domanda aperta.

Alex McFarland è un giornalista e scrittore di intelligenza artificiale che esplora gli ultimi sviluppi nel campo dell'intelligenza artificiale. Ha collaborato con numerose startup di intelligenza artificiale e pubblicazioni in tutto il mondo.