Suivez nous sur

Exploiter le silicium : comment les puces internes façonnent l’avenir de l’IA

Intelligence Artificielle

Exploiter le silicium : comment les puces internes façonnent l’avenir de l’IA

mm

L’intelligence artificielle, comme tout logiciel, repose sur deux éléments fondamentaux : les programmes d’IA, souvent appelés modèles, et le matériel informatique, ou puces, qui pilotent ces programmes. Jusqu’à présent, le développement de l’IA s’est concentré sur le raffinement des modèles, alors que le matériel était généralement considéré comme un composant standard fourni par des fournisseurs tiers. Cependant, cette approche a récemment commencé à changer. De grandes sociétés d’IA telles que Google, Meta et Amazon ont commencé à développer leurs propres puces d’IA. Le développement en interne de puces d’IA personnalisées annonce une nouvelle ère dans l’avancement de l’IA. Cet article explorera les raisons de ce changement d’approche et mettra en lumière les derniers développements dans ce domaine en évolution.

Pourquoi dĂ©velopper des puces IA en interne ?

La transition vers le dĂ©veloppement en interne de puces d’IA personnalisĂ©es est motivĂ©e par plusieurs facteurs critiques, notamment :  

Demande croissante de puces IA

La création et l'utilisation de modèles d'IA nécessitent des ressources informatiques importantes pour gérer efficacement de gros volumes de données et générer des prédictions ou des informations précises. Les puces informatiques traditionnelles sont incapables de gérer les demandes de calcul lors de la formation sur des milliards de points de données. Cette limitation a conduit à la création de puces d’IA de pointe spécialement conçues pour répondre aux exigences de haute performance et d’efficacité des applications d’IA modernes. À mesure que la recherche et le développement en IA continuent de croître, la demande pour ces puces spécialisées augmente également.

Nvidia, leader dans la production de puces d'IA avancées et bien en avance sur ses concurrents, est confronté à des défis car la demande dépasse largement sa capacité de fabrication. Cette situation a conduit à liste d'attente pour NvidiaLes puces IA de sont prolongées à plusieurs mois, un retard qui continue de croître à mesure que la demande pour leurs puces IA augmente. De plus, le marché des puces, qui comprend des acteurs majeurs comme Nvidia et Intel, rencontre des défis en matière de production de puces. Ce aide Cela vient de leur dépendance à l’égard du fabricant taïwanais TSMC pour l’assemblage des puces. Cette dépendance à l’égard d’un seul fabricant entraîne des délais de livraison prolongés pour la fabrication de ces puces avancées.

Rendre l’informatique IA économe en énergie et durable

La gĂ©nĂ©ration actuelle de puces IA, conçues pour des tâches informatiques lourdes, a tendance Ă  consomme beaucoup d'Ă©nergie, et gĂ©nèrent une chaleur importante. Cela a conduit Ă  des implications environnementales substantielles pour la formation et l’utilisation de modèles d’IA. Chercheurs OpenAI Notez que: depuis 2012, la puissance de calcul requise pour former des modèles d'IA avancĂ©s a doublĂ© tous les 3.4 mois, ce qui suggère que d'ici 2040, les Ă©missions du secteur des technologies de l'information et des communications (TIC) pourraient reprĂ©senter 14 % des Ă©missions mondiales. Une autre Ă©tude montrĂ© que la formation d'un seul Ă  grande Ă©chelle modèle de langage peut Ă©mettre jusqu'Ă  284,000 2 kg de COXNUMX, ce qui Ă©quivaut Ă  peu près Ă  la consommation Ă©nergĂ©tique de cinq voitures au cours de leur durĂ©e de vie. De plus, c'est estimĂ© que la consommation Ă©nergĂ©tique des centres de donnĂ©es croĂ®tre de 28 pour cent d’ici 2030. Ces rĂ©sultats soulignent la nĂ©cessitĂ© de trouver un Ă©quilibre entre le dĂ©veloppement de l’IA et la responsabilitĂ© environnementale. En rĂ©ponse, de nombreuses entreprises d’IA investissent dĂ©sormais dans le dĂ©veloppement de puces plus Ă©conomes en Ă©nergie, dans le but de rendre la formation et les opĂ©rations en IA plus durables et plus respectueuses de l’environnement.

Adaptation des puces pour des tâches spécialisées

Différents processus d'IA ont des exigences informatiques variables. Par exemple, la formation de modèles d’apprentissage profond nécessite une puissance de calcul importante et un débit élevé pour gérer de grands ensembles de données et exécuter rapidement des calculs complexes. Les puces conçues pour la formation sont optimisées pour améliorer ces opérations, améliorant ainsi la vitesse et l'efficacité. D’un autre côté, le processus d’inférence, dans lequel un modèle applique ses connaissances acquises pour faire des prédictions, nécessite un traitement rapide avec une consommation d’énergie minimale, en particulier dans les appareils de pointe comme les smartphones et les appareils IoT. Les puces d'inférence sont conçues pour optimiser les performances par watt, garantissant une réactivité rapide et une conservation de la batterie. Cette adaptation spécifique des conceptions de puces pour les tâches de formation et d'inférence permet à chaque puce d'être ajustée avec précision pour son rôle prévu, améliorant ainsi les performances sur différents appareils et applications. Ce type de spécialisation prend non seulement en charge des fonctionnalités d’IA plus robustes, mais favorise également une plus grande efficacité énergétique et une plus grande rentabilité.

Réduire les fardeaux financiers

La charge financière de l’informatique pour la formation et les opĂ©rations des modèles d’IA reste importante. OpenAI, par exemple, utilise un superordinateur Ă©tendu créé par Microsoft Ă  la fois pour la formation et l'infĂ©rence depuis 2020. Il a coĂ»tĂ© Ă  OpenAI environ 12 millions de dollars pour former son modèle GPT-3, et les dĂ©penses ont grimpĂ© jusqu'Ă  100 millions de dollars pour la formation GPT-4. Selon un Ecojustice Selon SemiAnalysis, OpenAI a besoin d'environ 3,617 100 serveurs HGX A28,936, totalisant 0.36 XNUMX GPU, pour prendre en charge ChatGPT, ce qui porte le coĂ»t moyen par requĂŞte Ă  environ XNUMX $. Compte tenu de ces coĂ»ts Ă©levĂ©s, Sam Altman, PDG d'OpenAI, chercherait des investissements importants pour construire un rĂ©seau mondial d'installations de production de puces IA, selon un rapport de Bloomberg. Ecojustice.

Exploiter le contrôle et l’innovation

Les puces d’IA tierces comportent souvent des limites. Les entreprises qui s'appuient sur ces puces peuvent se retrouver contraintes par des solutions standard qui ne correspondent pas entièrement à leurs modèles ou applications d'IA uniques. Le développement de puces en interne permet une personnalisation adaptée à des cas d'utilisation spécifiques. Qu'il s'agisse de voitures autonomes ou d'appareils mobiles, le contrôle du matériel permet aux entreprises d'exploiter pleinement leurs algorithmes d'IA. Les puces personnalisées peuvent améliorer des tâches spécifiques, réduire la latence et améliorer les performances globales.

Dernières avancées dans le développement de puces IA

Cette section examine les dernières avancées réalisées par Google, Meta et Amazon dans la création de la technologie des puces IA.

Processeurs Axion de Google

Google n'a cessé de progresser dans le domaine de la technologie des puces IA depuis l'introduction du Unité de traitement Tensor (TPU) en 2015. Sur cette base, Google a récemment lancé le Processeurs Axion, ses premiers processeurs personnalisés spécialement conçus pour les centres de données et les charges de travail d'IA. Ces processeurs sont basés sur l'architecture Arm, connue pour son efficacité et son design compact. Les processeurs Axion visent à améliorer l'efficacité de la formation et de l'inférence de l'IA basée sur le processeur tout en maintenant l'efficacité énergétique. Cette avancée marque également une amélioration significative des performances pour diverses charges de travail à usage général, notamment les serveurs Web et d'applications, les microservices conteneurisés, les bases de données open source, les caches en mémoire, les moteurs d'analyse de données, le traitement multimédia, etc.

MTIA de Meta

Meta fait progresser la technologie des puces IA avec son Accélérateur de méta-formation et d'inférence (MTIA). Cet outil est conçu pour augmenter l'efficacité des processus de formation et d'inférence, notamment pour les algorithmes de classement et de recommandation. Récemment, Meta a expliqué comment le MTIA est un élément clé de sa stratégie visant à renforcer son infrastructure d'IA au-delà des GPU. Initialement prévu pour 2025, Meta a déjà mis en production les deux versions du MTIA, montrant un rythme plus rapide dans ses plans de développement de puces. Alors que le MTIA se concentre actuellement sur la formation de certains types d'algorithmes, Meta vise à étendre son utilisation pour inclure la formation à l'IA générative, comme son Modèles de langage lama.

Trainium et Inferentia d'Amazon

Depuis l'introduction de sa coutume Puce Nitro en 2013, Amazon a considĂ©rablement Ă©tendu le dĂ©veloppement de ses puces IA. La sociĂ©tĂ© a rĂ©cemment dĂ©voilĂ© deux puces d'IA innovantes, trainium ou InfĂ©rence. Trainium est spĂ©cialement conçu pour amĂ©liorer la formation des modèles d'IA et devrait ĂŞtre intĂ©grĂ© Ă  UltraClusters EC2. Ces clusters, capables d'hĂ©berger jusqu'Ă  100,000 XNUMX puces, sont optimisĂ©s pour la formation de modèles fondamentaux et de grands modèles de langage de manière Ă©conome en Ă©nergie. Inferentia, quant Ă  lui, est conçu pour les tâches d'infĂ©rence dans lesquelles les modèles d'IA sont activement appliquĂ©s, en se concentrant sur la diminution de la latence et des coĂ»ts lors de l'infĂ©rence afin de mieux rĂ©pondre aux besoins de millions d'utilisateurs interagissant avec des services basĂ©s sur l'IA.

En résumé

Le mouvement vers le développement en interne de puces d’IA personnalisées par de grandes entreprises comme Google, Microsoft et Amazon reflète un changement stratégique visant à répondre aux besoins informatiques croissants des technologies d’IA. Cette tendance met en évidence la nécessité de solutions spécifiquement adaptées pour prendre en charge efficacement les modèles d’IA, répondant aux exigences uniques de ces systèmes avancés. Alors que la demande de puces IA continue de croître, les leaders du secteur comme Nvidia connaîtront probablement une augmentation significative de la valorisation boursière, soulignant le rôle essentiel que jouent les puces personnalisées dans l’avancement de l’innovation en matière d’IA. En créant leurs propres puces, ces géants de la technologie améliorent non seulement les performances et l’efficacité de leurs systèmes d’IA, mais promeuvent également un avenir plus durable et plus rentable. Cette évolution établit de nouvelles normes dans l’industrie, favorisant le progrès technologique et l’avantage concurrentiel sur un marché mondial en évolution rapide.

Le Dr Tehseen Zia est professeur agrégé titulaire à l'Université COMSATS d'Islamabad, titulaire d'un doctorat en IA de l'Université de technologie de Vienne, en Autriche. Spécialisé en intelligence artificielle, apprentissage automatique, science des données et vision par ordinateur, il a apporté d'importantes contributions avec des publications dans des revues scientifiques réputées. Le Dr Tehseen a également dirigé divers projets industriels en tant que chercheur principal et a servi à titre de consultant en IA.