Suivez nous sur

Le Saint Graal de la puissance de calcul en IA

Des leaders d'opinion

Le Saint Graal de la puissance de calcul en IA

mm

Malgré des progrès incroyables, les capacités de l'intelligence artificielle restent limitées au regard des attentes du monde réel. Nous élaborons des modèles complexes, exécutons des réseaux neuronaux et testons des algorithmes, mais les progrès stagnent parfois là où on s'y attend le moins.

Le problème rĂ©side souvent non pas dans les algorithmes ou les donnĂ©es, mais dans la puissance de calcul, c'est-Ă -dire les ressources nĂ©cessaires pour que les modèles apprennent et fonctionnent Ă  l'Ă©chelle requise. Alors, qu'est-ce qui se cache derrière cet obstacle ? Examinons la ressource essentielle sans laquelle mĂŞme les projets d'IA les plus prometteurs ne peuvent quitter le laboratoire.

Le déficit de puissance de calcul et ses conséquences

Pour comprendre ce sujet, commençons par un historique des communications mobiles. Avec l'apparition des rĂ©seaux 3G, puis 4G, Internet Ă©tait dĂ©jĂ  quasiment mondial. Et lors de l'arrivĂ©e de la 5G, beaucoup se sont posĂ© une question tout Ă  fait lĂ©gitime : « Internet sera plus rapide, et alors ? Â»

En réalité, l'augmentation de la vitesse d'Internet ne se résume pas à un simple gain de confort pour l'utilisateur. Elle transforme en profondeur le paysage technologique. De nouveaux usages, auparavant impossibles, voient le jour. La 5G s'est avérée bien plus rapide que la 4G, et ce bond en avant n'a pas été progressif, comme le passage de la 1G à la 2G, mais exponentiel. De ce fait, de nouvelles applications, de nouveaux appareils et des pans entiers de technologies peuvent apparaître.

CamĂ©ras de surveillance des feux de circulation, systèmes d'analyse du trafic en temps rĂ©el et mĂ©canismes de rĂ©gulation automatisĂ©e du trafic : tout cela est rendu possible grâce aux nouvelles technologies de communication. Les forces de l'ordre disposent de nouveaux moyens d'Ă©changer des donnĂ©es et, dans l'espace, les tĂ©lescopes et les satellites peuvent transmettre d'Ă©normes quantitĂ©s d'informations vers la Terre. Un progrès significatif dans une technologie fondamentale stimule le dĂ©veloppement de l'ensemble de l'Ă©cosystème.

Le même principe s'applique à la puissance de calcul. Imaginons la capacité de calcul totale de l'humanité exprimée en unités hypothétiques. Aujourd'hui, nous pourrions en disposer d'une dizaine. Grâce à elles, nous pouvons générer des images et des vidéos, rédiger des textes, créer des supports marketing… C'est déjà considérable, mais le champ d'application reste limité.

Imaginez maintenant que nous disposions non pas de dix, mais de mille unités de ce type. Soudain, des technologies auparavant trop coûteuses deviennent accessibles, et des start-ups abandonnées en raison de coûts de calcul élevés commencent à être économiquement viables.

Prenons l'exemple des robotaxis. Aujourd'hui, ils reposent principalement sur des ordinateurs embarquĂ©s relativement peu puissants. Or, si le flux vidĂ©o Ă©tait transmis vers le cloud, dotĂ© d'Ă©normes ressources de calcul, les donnĂ©es pourraient ĂŞtre traitĂ©es et renvoyĂ©es en temps rĂ©el. Et c'est crucial : une voiture roulant Ă  100 km/h doit prendre des dĂ©cisions en une fraction de seconde : continuer tout droit, tourner, freiner ou ne pas freiner.

C’est alors qu’une véritable industrie des robotaxis deviendra possible, et non plus de simples solutions isolées comme celles que nous connaissons aujourd’hui. Tout ordinateur embarqué présente des limitations intrinsèques, contrairement à un système connecté. Plus vite nous pourrons déployer cette technologie à grande échelle, plus vite le monde qui nous entoure évoluera.

L'accès aux puces et au « ticket d'or » de l'IA

Dans le contexte de la puissance de calcul, une question se pose : l’accès aux puces modernes est-il en train de devenir le sĂ©same pour entrer sur le marchĂ© de l’IA ? Les grands acteurs qui signent des contrats avec les fabricants de puces, ou qui les produisent eux-mĂŞmes, creusent-ils un fossĂ© entre les grandes entreprises et tous les autres ?

Un tel Ă©cart n'apparaĂ®t que dans un seul cas : celui d'un modèle Ă©conomique axĂ© exclusivement sur la vente de puces aux grands comptes. En pratique, des fabricants comme NVIDIA visent Ă  fournir des solutions cloud Ă  tous. Leurs puces optimisĂ©es sont disponibles dans le cloud aussi bien pour OpenAI que pour les dĂ©veloppeurs indĂ©pendants.

Même les alliances stratégiques entre des entreprises comme Google, Anthropic, Microsoft, OpenAI, Amazon et NVIDIA sont avant tout des partenariats de partage de ressources, et non des tentatives de monopoliser le marché. Ce modèle permet une allocation efficace de la puissance de calcul, accélérant ainsi le développement technologique.

Si l'on retrace la chaĂ®ne d'utilisation des ressources informatiques, elle commence avec l'utilisateur final. Par exemple, lorsque vous utilisez WhatsApp pour les appels vidĂ©o et la messagerie, l'entreprise doit s'assurer du bon fonctionnement du service : stockage et traitement des donnĂ©es, exĂ©cution de modèles pour le nettoyage vidĂ©o, ajout d'effets et amĂ©lioration de la qualitĂ© d'image.

Maintenir des serveurs propriĂ©taires est coĂ»teux, ils deviennent obsolètes et nĂ©cessitent une maintenance constante. C'est pourquoi les solutions cloud, ou « le cloud », ont Ă©mergĂ©. Le marchĂ© est dominĂ© par trois acteurs : Google Cloud, AWS et Microsoft Azure. Les autres entreprises ne peuvent rivaliser Ă  ce niveau : l'infrastructure est trop vaste.

Les services cloud sont d'immenses centres de données dotés de systèmes de refroidissement, d'alimentation électrique et d'une maintenance continue. Ils hébergent des serveurs et des puces spécialisées de NVIDIA, AMD et d'autres fabricants, permettant des calculs à grande échelle.

Nous en arrivons ici Ă  la question clĂ© que j'ai abordĂ©e dans mon Article prĂ©cĂ©dent sur les centres de donnĂ©esJe souhaite poursuivre ma question : quel est le principal goulot d’étranglement de ce système ? Est-ce la pĂ©nurie d’électricitĂ© ou la difficultĂ© de refroidir les centres de donnĂ©es dans les rĂ©gions oĂą le climat est particulièrement aride ? En rĂ©alitĂ©, le secret rĂ©side dans les puces elles-mĂŞmes…

Le Saint-Graal

Pourquoi NVIDIA est-elle aujourd'hui valorisĂ©e Ă  environ 5 000 milliards de dollars et compte-t-elle parmi les entreprises cotĂ©es en bourse les plus prospères au monde ? La raison est simple : NVIDIA produit les puces sur lesquelles les modèles d'IA sont entraĂ®nĂ©s et effectuent des infĂ©rences.

Chacune de ces puces consomme d'Ă©normes quantitĂ©s d'Ă©lectricitĂ© lors de l'entraĂ®nement de modèles complexes ou du traitement de volumes de donnĂ©es toujours croissants. Mais cette Ă©nergie est-elle utilisĂ©e efficacement ? C'est lĂ  qu'interviennent les puces spĂ©cialisĂ©es ; elles gèrent des tâches spĂ©cifiques avec une efficacitĂ© bien supĂ©rieure Ă  celle des GPU gĂ©nĂ©ralistes.

Les modèles d'IA diffèrent. OpenAI, par exemple, propose une famille de modèles, Anthropic une autre. Si les concepts peuvent ĂŞtre similaires, les structures mathĂ©matiques et les processus de calcul sont diffĂ©rents. Une seule puce Ă  usage gĂ©nĂ©ral, utilisĂ©e pour l'entraĂ®nement de modèles OpenAI (comme ChatGPT) ou de modèles Anthropic (comme Claude), se comporte comme un outil unique, consommant par exemple 100 000 heures de calcul pour un modèle et 150 000 pour un autre. L'efficacitĂ© varie considĂ©rablement et est rarement optimale.

Les entreprises résolvent ce problème en produisant des puces spécialisées. Par exemple, une puce peut être optimisée pour l'architecture ChatGPT et l'entraîner en 20 minutes, tandis qu'une autre, adaptée à l'architecture d'Anthropic, effectue également un entraînement en 20 minutes. La consommation d'énergie et le temps d'entraînement sont ainsi considérablement réduits par rapport à une puce standard.

Lorsque ces puces sont vendues à de grandes entreprises comme Google, Amazon, Microsoft ou Azure, elles sont proposées comme produits autonomes. Les utilisateurs peuvent choisir, par exemple, une puce optimisée pour un modèle YOLO ou une puce plus simple et moins coûteuse pour une architecture Xen. Ainsi, les entreprises accèdent à des ressources de calcul précisément adaptées à leurs tâches, au lieu d'acheter des GPU à usage général. Si un utilisateur a dix fonctions différentes, il peut utiliser dix puces spécialisées différentes.

La tendance est claire : les puces spĂ©cialisĂ©es remplacent progressivement les puces Ă  usage gĂ©nĂ©ral. De nombreuses start-ups travaillent dĂ©sormais avec des ASIC (circuits intĂ©grĂ©s spĂ©cifiques Ă  une application), des puces conçues pour des tâches de calcul prĂ©cises. Les premiers ASIC sont apparus pour le minage de Bitcoin : initialement, la cryptomonnaie Ă©tait minĂ©e sur des GPU NVIDIA, puis des puces ont Ă©tĂ© créées exclusivement pour le Bitcoin et Ă©taient incapables d’effectuer d’autres tâches.

Je le constate en pratique : une mĂŞme configuration matĂ©rielle peut produire des rĂ©sultats complètement diffĂ©rents selon la tâche. Dans ma startup Introspecteur, nous Ă©tudions ces processus dans des projets rĂ©els, et en tant que conseiller stratĂ©gique de Marqueur de clĂ©sJ'observe comment les clients gagnent en efficacitĂ© grâce Ă  des puces spĂ©cialisĂ©es, permettant une exĂ©cution plus rapide des modèles. Les projets qui stagnaient auparavant lors de l'entraĂ®nement ou de l'infĂ©rence obtiennent des rĂ©sultats stables grâce Ă  cette approche.

Cependant, une spécialisation trop poussée comporte des risques. Une puce optimisée pour l'architecture d'Anthropic ne conviendra pas à l'entraînement des modèles OpenAI, et inversement. Chaque nouvelle architecture requiert une nouvelle génération de matériel, engendrant un risque d'obsolescence massive. Si Anthropic lance une nouvelle architecture demain, toutes les puces de la génération précédente deviendront obsolètes, voire inutilisables. La production de nouvelles puces coûte des milliards de dollars et peut prendre des années.

Cela crée un dilemme : devons-nous fabriquer des puces spécialisées qui fonctionnent parfaitement dans un scénario précis, ou continuer à produire des puces à usage général qui résolvent assez bien toutes les tâches mais qui ne nécessitent pas un remplacement complet lorsque les architectures changent ?

Dans ce contexte, l'efficacitĂ© se mesure par trois paramètres principaux : la durĂ©e de fonctionnement, la consommation d'Ă©lectricitĂ© et la production de chaleur. Ces paramètres sont directement liĂ©s : plus un système fonctionne longtemps, plus il consomme d'Ă©nergie et plus il produit de chaleur. RĂ©duire l'un de ces paramètres amĂ©liore automatiquement les deux autres.

C’est lĂ  que rĂ©side le « Saint Graal » des performances de l’IA : si au moins l’un des indicateurs d’efficacitĂ© fondamentaux peut ĂŞtre optimisĂ©, les autres indicateurs s’amĂ©liorent presque automatiquement eux aussi.

Processus durable

Avec l'utilisation croissante de puces spécialisées, la question des risques de surproduction est devenue cruciale. Actuellement, le surplus d'équipements est déjà important et les entreprises s'attaquent à ce problème de diverses manières durables, notamment par la réutilisation des ressources existantes.

Le recyclage des équipements est devenu un élément clé du développement durable dans les industries de haute technologie. Les puces contiennent des quantités importantes de métaux précieux et communs, tels que l'or, le cuivre, l'aluminium, le palladium et les terres rares, ainsi que des matériaux utilisés dans les microprocesseurs et les transistors. Une fois obsolètes, ces équipements permettent de réintégrer ces précieuses ressources dans la production, réduisant ainsi le coût des nouveaux composants et l'impact environnemental du secteur.

Certaines usines et entreprises spécialisées se concentrent sur le recyclage et l'extraction de métaux précieux à partir de composants obsolètes. Par exemple, certaines installations utilisent des procédés hydrométallurgiques et des méthodes chimiques avancées pour extraire de l'or et du cuivre d'une grande pureté, permettant ainsi leur réutilisation dans la fabrication de nouvelles puces.

De plus, les entreprises mettent en œuvre des modèles en boucle fermée, où les équipements anciens sont modernisés ou intégrés à de nouvelles solutions, réduisant ainsi le besoin d'extraction de ressources primaires. Ces approches contribuent non seulement à minimiser les déchets, mais aussi à réduire l'empreinte carbone de la production, car l'exploitation minière et le traitement des métaux traditionnels nécessitent une énergie considérable.

La gestion durable du cycle de vie des puces et des équipements pourrait devenir une norme industrielle, où le progrès technologique s'aligne sur la responsabilité environnementale.

Michael Abramov est le fondateur et PDG de Introspecteur, apportant plus de 15 ans d'expérience en ingénierie logicielle et en systèmes d'IA de vision par ordinateur à la création d'outils d'étiquetage de niveau entreprise.

Michael a débuté sa carrière comme ingénieur logiciel et responsable R&D, concevant des systèmes de données évolutifs et gérant des équipes d'ingénierie pluridisciplinaires. Jusqu'en 2025, il a occupé le poste de PDG de Marqueur de clés, une société de services d'étiquetage de données, où il a été un pionnier des flux de travail avec intervention humaine, des systèmes d'assurance qualité avancés et des outils sur mesure pour répondre aux besoins en données de vision par ordinateur et d'autonomie à grande échelle.

Titulaire d'une licence en informatique et fort d'une expérience en ingénierie et en arts créatifs, il apporte une vision multidisciplinaire à la résolution de problèmes complexes. Michael évolue au carrefour de l'innovation technologique, du leadership stratégique en matière de produits et de l'impact concret, contribuant à repousser les frontières des systèmes autonomes et de l'automatisation intelligente.