Suivez nous sur

Exploiter le silicium : comment les puces internes façonnent l’avenir de l’IA

Intelligence Artificielle

Exploiter le silicium : comment les puces internes façonnent l’avenir de l’IA

mm

L’intelligence artificielle, comme tout logiciel, repose sur deux Ă©lĂ©ments fondamentaux : les programmes d’IA, souvent appelĂ©s modĂšles, et le matĂ©riel informatique, ou puces, qui pilotent ces programmes. Jusqu’à prĂ©sent, le dĂ©veloppement de l’IA s’est concentrĂ© sur le raffinement des modĂšles, alors que le matĂ©riel Ă©tait gĂ©nĂ©ralement considĂ©rĂ© comme un composant standard fourni par des fournisseurs tiers. Cependant, cette approche a rĂ©cemment commencĂ© Ă  changer. De grandes sociĂ©tĂ©s d’IA telles que Google, Meta et Amazon ont commencĂ© Ă  dĂ©velopper leurs propres puces d’IA. Le dĂ©veloppement en interne de puces d’IA personnalisĂ©es annonce une nouvelle Ăšre dans l’avancement de l’IA. Cet article explorera les raisons de ce changement d’approche et mettra en lumiĂšre les derniers dĂ©veloppements dans ce domaine en Ă©volution.

Pourquoi dĂ©velopper des puces IA en interne ?

La transition vers le dĂ©veloppement en interne de puces d’IA personnalisĂ©es est motivĂ©e par plusieurs facteurs critiques, notamment :  

Demande croissante de puces IA

La crĂ©ation et l'utilisation de modĂšles d'IA nĂ©cessitent des ressources informatiques importantes pour gĂ©rer efficacement de gros volumes de donnĂ©es et gĂ©nĂ©rer des prĂ©dictions ou des informations prĂ©cises. Les puces informatiques traditionnelles sont incapables de gĂ©rer les demandes de calcul lors de la formation sur des milliards de points de donnĂ©es. Cette limitation a conduit Ă  la crĂ©ation de puces d’IA de pointe spĂ©cialement conçues pour rĂ©pondre aux exigences de haute performance et d’efficacitĂ© des applications d’IA modernes. À mesure que la recherche et le dĂ©veloppement en IA continuent de croĂźtre, la demande pour ces puces spĂ©cialisĂ©es augmente Ă©galement.

Nvidia, leader dans la production de puces d'IA avancĂ©es et bien en avance sur ses concurrents, est confrontĂ© Ă  des dĂ©fis car la demande dĂ©passe largement sa capacitĂ© de fabrication. Cette situation a conduit Ă  liste d'attente pour NvidiaLes puces IA de sont prolongĂ©es Ă  plusieurs mois, un retard qui continue de croĂźtre Ă  mesure que la demande pour leurs puces IA augmente. De plus, le marchĂ© des puces, qui comprend des acteurs majeurs comme Nvidia et Intel, rencontre des dĂ©fis en matiĂšre de production de puces. Ce aide Cela vient de leur dĂ©pendance Ă  l’égard du fabricant taĂŻwanais TSMC pour l’assemblage des puces. Cette dĂ©pendance Ă  l’égard d’un seul fabricant entraĂźne des dĂ©lais de livraison prolongĂ©s pour la fabrication de ces puces avancĂ©es.

Rendre l’informatique IA Ă©conome en Ă©nergie et durable

La gĂ©nĂ©ration actuelle de puces IA, conçues pour des tĂąches informatiques lourdes, a tendance Ă  consomme beaucoup d'Ă©nergie, et gĂ©nĂšrent une chaleur importante. Cela a conduit Ă  des implications environnementales substantielles pour la formation et l’utilisation de modĂšles d’IA. Chercheurs OpenAI Notez que: depuis 2012, la puissance de calcul requise pour former des modĂšles d'IA avancĂ©s a doublĂ© tous les 3.4 mois, ce qui suggĂšre que d'ici 2040, les Ă©missions du secteur des technologies de l'information et des communications (TIC) pourraient reprĂ©senter 14 % des Ă©missions mondiales. Une autre Ă©tude montrĂ© que la formation d'un seul Ă  grande Ă©chelle modĂšle de langage peut Ă©mettre jusqu'Ă  284,000 2 kg de COXNUMX, ce qui Ă©quivaut Ă  peu prĂšs Ă  la consommation Ă©nergĂ©tique de cinq voitures au cours de leur durĂ©e de vie. De plus, c'est estimĂ© que la consommation Ă©nergĂ©tique des centres de donnĂ©es croĂźtre de 28 pour cent d’ici 2030. Ces rĂ©sultats soulignent la nĂ©cessitĂ© de trouver un Ă©quilibre entre le dĂ©veloppement de l’IA et la responsabilitĂ© environnementale. En rĂ©ponse, de nombreuses entreprises d’IA investissent dĂ©sormais dans le dĂ©veloppement de puces plus Ă©conomes en Ă©nergie, dans le but de rendre la formation et les opĂ©rations en IA plus durables et plus respectueuses de l’environnement.

Adaptation des puces pour des tùches spécialisées

DiffĂ©rents processus d'IA ont des exigences informatiques variables. Par exemple, la formation de modĂšles d’apprentissage profond nĂ©cessite une puissance de calcul importante et un dĂ©bit Ă©levĂ© pour gĂ©rer de grands ensembles de donnĂ©es et exĂ©cuter rapidement des calculs complexes. Les puces conçues pour la formation sont optimisĂ©es pour amĂ©liorer ces opĂ©rations, amĂ©liorant ainsi la vitesse et l'efficacitĂ©. D’un autre cĂŽtĂ©, le processus d’infĂ©rence, dans lequel un modĂšle applique ses connaissances acquises pour faire des prĂ©dictions, nĂ©cessite un traitement rapide avec une consommation d’énergie minimale, en particulier dans les appareils de pointe comme les smartphones et les appareils IoT. Les puces d'infĂ©rence sont conçues pour optimiser les performances par watt, garantissant une rĂ©activitĂ© rapide et une conservation de la batterie. Cette adaptation spĂ©cifique des conceptions de puces pour les tĂąches de formation et d'infĂ©rence permet Ă  chaque puce d'ĂȘtre ajustĂ©e avec prĂ©cision pour son rĂŽle prĂ©vu, amĂ©liorant ainsi les performances sur diffĂ©rents appareils et applications. Ce type de spĂ©cialisation prend non seulement en charge des fonctionnalitĂ©s d’IA plus robustes, mais favorise Ă©galement une plus grande efficacitĂ© Ă©nergĂ©tique et une plus grande rentabilitĂ©.

Réduire les fardeaux financiers

La charge financiĂšre de l’informatique pour la formation et les opĂ©rations des modĂšles d’IA reste importante. OpenAI, par exemple, utilise un superordinateur Ă©tendu créé par Microsoft Ă  la fois pour la formation et l'infĂ©rence depuis 2020. Il a coĂ»tĂ© Ă  OpenAI environ 12 millions de dollars pour former son modĂšle GPT-3, et les dĂ©penses ont grimpĂ© jusqu'Ă  100 millions de dollars pour la formation GPT-4. Selon un rapport Selon SemiAnalysis, OpenAI a besoin d'environ 3,617 100 serveurs HGX A28,936, totalisant 0.36 XNUMX GPU, pour prendre en charge ChatGPT, ce qui porte le coĂ»t moyen par requĂȘte Ă  environ XNUMX $. Compte tenu de ces coĂ»ts Ă©levĂ©s, Sam Altman, PDG d'OpenAI, chercherait des investissements importants pour construire un rĂ©seau mondial d'installations de production de puces IA, selon un rapport de Bloomberg. rapport.

Exploiter le contrîle et l’innovation

Les puces d’IA tierces comportent souvent des limites. Les entreprises qui s'appuient sur ces puces peuvent se retrouver contraintes par des solutions standard qui ne correspondent pas entiĂšrement Ă  leurs modĂšles ou applications d'IA uniques. Le dĂ©veloppement de puces en interne permet une personnalisation adaptĂ©e Ă  des cas d'utilisation spĂ©cifiques. Qu'il s'agisse de voitures autonomes ou d'appareils mobiles, le contrĂŽle du matĂ©riel permet aux entreprises d'exploiter pleinement leurs algorithmes d'IA. Les puces personnalisĂ©es peuvent amĂ©liorer des tĂąches spĂ©cifiques, rĂ©duire la latence et amĂ©liorer les performances globales.

DerniÚres avancées dans le développement de puces IA

Cette section examine les derniÚres avancées réalisées par Google, Meta et Amazon dans la création de la technologie des puces IA.

Processeurs Axion de Google

Google n'a cessé de progresser dans le domaine de la technologie des puces IA depuis l'introduction du Unité de traitement Tensor (TPU) en 2015. Sur cette base, Google a récemment lancé le Processeurs Axion, ses premiers processeurs personnalisés spécialement conçus pour les centres de données et les charges de travail d'IA. Ces processeurs sont basés sur l'architecture Arm, connue pour son efficacité et son design compact. Les processeurs Axion visent à améliorer l'efficacité de la formation et de l'inférence de l'IA basée sur le processeur tout en maintenant l'efficacité énergétique. Cette avancée marque également une amélioration significative des performances pour diverses charges de travail à usage général, notamment les serveurs Web et d'applications, les microservices conteneurisés, les bases de données open source, les caches en mémoire, les moteurs d'analyse de données, le traitement multimédia, etc.

MTIA de Meta

Meta fait progresser la technologie des puces IA avec son Accélérateur de méta-formation et d'inférence (MTIA). Cet outil est conçu pour augmenter l'efficacité des processus de formation et d'inférence, notamment pour les algorithmes de classement et de recommandation. Récemment, Meta a expliqué comment le MTIA est un élément clé de sa stratégie visant à renforcer son infrastructure d'IA au-delà des GPU. Initialement prévu pour 2025, Meta a déjà mis en production les deux versions du MTIA, montrant un rythme plus rapide dans ses plans de développement de puces. Alors que le MTIA se concentre actuellement sur la formation de certains types d'algorithmes, Meta vise à étendre son utilisation pour inclure la formation à l'IA générative, comme son ModÚles de langage lama.

Trainium et Inferentia d'Amazon

Depuis l'introduction de sa coutume Puce Nitro en 2013, Amazon a considĂ©rablement Ă©tendu le dĂ©veloppement de ses puces IA. La sociĂ©tĂ© a rĂ©cemment dĂ©voilĂ© deux puces d'IA innovantes, trainium et InfĂ©rence. Trainium est spĂ©cialement conçu pour amĂ©liorer la formation des modĂšles d'IA et devrait ĂȘtre intĂ©grĂ© Ă  UltraClusters EC2. Ces clusters, capables d'hĂ©berger jusqu'Ă  100,000 XNUMX puces, sont optimisĂ©s pour la formation de modĂšles fondamentaux et de grands modĂšles de langage de maniĂšre Ă©conome en Ă©nergie. Inferentia, quant Ă  lui, est conçu pour les tĂąches d'infĂ©rence dans lesquelles les modĂšles d'IA sont activement appliquĂ©s, en se concentrant sur la diminution de la latence et des coĂ»ts lors de l'infĂ©rence afin de mieux rĂ©pondre aux besoins de millions d'utilisateurs interagissant avec des services basĂ©s sur l'IA.

En résumé

Le mouvement vers le dĂ©veloppement en interne de puces d’IA personnalisĂ©es par de grandes entreprises comme Google, Microsoft et Amazon reflĂšte un changement stratĂ©gique visant Ă  rĂ©pondre aux besoins informatiques croissants des technologies d’IA. Cette tendance met en Ă©vidence la nĂ©cessitĂ© de solutions spĂ©cifiquement adaptĂ©es pour prendre en charge efficacement les modĂšles d’IA, rĂ©pondant aux exigences uniques de ces systĂšmes avancĂ©s. Alors que la demande de puces IA continue de croĂźtre, les leaders du secteur comme Nvidia connaĂźtront probablement une augmentation significative de la valorisation boursiĂšre, soulignant le rĂŽle essentiel que jouent les puces personnalisĂ©es dans l’avancement de l’innovation en matiĂšre d’IA. En crĂ©ant leurs propres puces, ces gĂ©ants de la technologie amĂ©liorent non seulement les performances et l’efficacitĂ© de leurs systĂšmes d’IA, mais promeuvent Ă©galement un avenir plus durable et plus rentable. Cette Ă©volution Ă©tablit de nouvelles normes dans l’industrie, favorisant le progrĂšs technologique et l’avantage concurrentiel sur un marchĂ© mondial en Ă©volution rapide.

Le Dr Tehseen Zia est professeur agrégé titulaire à l'Université COMSATS d'Islamabad, titulaire d'un doctorat en IA de l'Université de technologie de Vienne, en Autriche. Spécialisé en intelligence artificielle, apprentissage automatique, science des données et vision par ordinateur, il a apporté d'importantes contributions avec des publications dans des revues scientifiques réputées. Le Dr Tehseen a également dirigé divers projets industriels en tant que chercheur principal et a servi à titre de consultant en IA.