Intelligence artificielle
Google et Intel élargissent leur partenariat de puces pour l’infrastructure d’IA

Google et Intel ont annoncé une expansion pluriannuelle de leur partenariat d’infrastructure cloud, s’engageant à déployer continuellement des processeurs Intel Xeon dans Google Cloud et à développer conjointement des unités de traitement d’infrastructure (IPU) personnalisées conçues pour les charges de travail d’IA.
Le accord, annoncé le 9 avril, couvre deux domaines : Google Cloud continuera à utiliser plusieurs générations de processeurs Intel Xeon, y compris les derniers processeurs Xeon 6 qui alimentent ses instances de machine virtuelle C4 et N4, pour l’inférence d’IA, la coordination de l’entraînement et le calcul général. Séparément, les deux entreprises élargiront leur développement conjoint d’IPU basés sur des circuits intégrés application-spécifiques (ASIC), des accélérateurs programmables qui déchargent les fonctions de réseau, de stockage et de sécurité des processeurs hôtes dans les centres de données.
Intel et Google collaborent sur les IPU depuis 2022, lorsque le premier IPU personnalisé — codé Mount Evans — a été lancé aux côtés des instances C3 de Google Cloud. Ces IPU fonctionnent à 200 Gbps et gèrent des tâches telles que la mise en réseau virtuelle et les opérations de stockage qui consommeraient autrement des ressources CPU destinées aux charges de travail des clients. La prochaine génération d’IPU co-développés n’a pas été détaillée, bien que les observateurs du secteur s’attendent à des vitesses plus élevées compte tenu des exigences de mise en réseau des grappes de calcul d’IA modernes.
Pourquoi les CPUs sont toujours importants pour l’IA
Le partenariat met en évidence un changement dans la façon dont l’industrie pense à l’infrastructure d’IA. Alors que les GPU et les accélérateurs personnalisés comme les TPUs de Google gèrent les calculs lourds de l’entraînement et de l’exécution des modèles d’IA, les CPUs restent essentiels pour orchestrer les charges de travail distribuées, gérer les pipelines de données et exécuter l’infrastructure de support qui maintient les grands systèmes d’IA opérationnels.
Le PDG d’Intel, Lip-Bu Tan, a présenté l’accord autour de cette réalité dans le communiqué de presse de l’entreprise : l’entreprise soutient que la mise à l’échelle de l’IA nécessite des systèmes équilibrés où les CPUs et les IPU travaillent aux côtés des accélérateurs, et non des systèmes construits uniquement sur des accélérateurs.
Amin Vahdat, vice-président senior et chef technologue d’IA Infrastructure de Google, a noté qu’Intel est un partenaire depuis près de deux décennies et que la feuille de route Xeon donne à Google la confiance pour répondre aux exigences de performances et d’efficacité à venir.
L’accord intervient à un moment où les contraintes d’approvisionnement en CPU sont importantes. Intel est actuellement aux prises avec des pénuries sur ses nœuds de fabrication Intel 10 et Intel 7, où se trouve la majeure partie de sa production de Xeon. Les délais de livraison des CPUs de serveur ont été étendus à six mois dans certains cas, et Intel a confirmé des augmentations de prix car la demande dépasse l’offre. L’entreprise donne la priorité aux puces de centre de données par rapport aux processeurs grand public pour résoudre le problème.
L’ensemble du paysage des puces d’IA
L’activité de puces personnalisées d’Intel, qui comprend le travail de co-développement d’IPU avec Google, est devenue un flux de revenus important. Le directeur financier d’Intel, David Zinsner, a déclaré lors de l’appel de résultats du quatrième trimestre 2025 de l’entreprise que la division de puces personnalisées a augmenté de plus de 50 % en 2025 et a terminé le quatrième trimestre avec un rythme de revenus annuels supérieur à 1 milliard de dollars.
L’accord est également important sur le plan concurrentiel. Google exploite son propre CPU basé sur Arm, Axion, pour les charges de travail internes et clientes. Amazon construit des NIC Nitro personnalisés via sa division Annapurna Labs, et Microsoft utilise des solutions basées sur FPGA pour un déchargement d’infrastructure similaire. En continuant à co-développer des IPU avec Intel plutôt que de construire entièrement en interne, Google maintient une approche différente de celle de ses pairs hyperscaleurs — une approche qui garde Intel dans la boucle en tant que fournisseur de CPU et partenaire de silicium personnalisé.
Pour Intel, le partenariat fournit une validation de haute visibilité de sa stratégie de centre de données sous la direction de Tan. L’entreprise a fait face à des questions sur sa pertinence alors que les fournisseurs de cloud conçoivent leurs propres puces. Maintenir une relation de silicium personnalisé approfondie avec l’un des plus grands opérateurs de cloud au monde signale que les capacités de fonderie et de conception d’Intel restent compétitives pour les charges de travail critiques d’infrastructure.
Aucun détail financier n’a été divulgué. La course aux armements d’IA parmi les fournisseurs de cloud ne montre aucun signe de ralentissement, et la sécurisation de chaînes d’approvisionnement fiables en CPU et en puces personnalisées devient aussi stratégiquement importante que la procuration de GPU. Que Intel puisse mettre à l’échelle sa fabrication suffisamment vite pour capitaliser sur cette demande — tout en gérant ses contraintes d’approvisionnement en cours — demeure la question ouverte.












