Leaders d’opinion
L’appétit croissant de l’IA pour l’énergie : les centres de données sont-ils prêts à suivre ?
Alors que l’intelligence artificielle (IA) avance à tout va, ses exigences énergétiques mettent les centres de données à rude épreuve. Les technologies d’IA de nouvelle génération comme l’IA générative (IA gen) ne transforment pas seulement les industries – leur consommation d’énergie affecte presque chaque composant du serveur de données, des processeurs et de la mémoire aux accélérateurs et au réseau.
Les applications d’IA gen, notamment Copilot de Microsoft et ChatGPT d’OpenAI, exigent plus d’énergie que jamais auparavant. D’ici 2027, la formation et la maintenance de ces systèmes d’IA seuls pourraient consommer suffisamment d’électricité pour alimenter un petit pays pendant une année entière. Et la tendance ne ralentit pas : au cours de la dernière décennie, les exigences de puissance pour des composants tels que les processeurs, la mémoire et le réseau devraient augmenter de 160 % d’ici 2030, selon un rapport de Goldman Sachs.
L’utilisation de grands modèles de langage consomme également de l’énergie. Par exemple, une requête ChatGPT consomme environ dix fois plus qu’une recherche Google traditionnelle. Compte tenu des exigences énergétiques massives de l’IA, l’industrie peut-elle gérer ses progrès rapides de manière durable, ou contribueront-ils davantage à la consommation d’énergie mondiale ? Les recherches récentes de McKinsey montrent que environ 70 % de la demande croissante sur le marché des centres de données est axée sur les installations équipées pour gérer les charges de travail avancées d’IA. Ce changement modifie fondamentalement la façon dont les centres de données sont construits et exploités, car ils s’adaptent aux exigences uniques de ces tâches d’IA gen à haute puissance.
« Les centres de données traditionnels fonctionnent souvent avec des équipements vieillissants et gourmands en énergie et des capacités fixes qui peinent à s’adapter aux charges de travail fluctuantes, ce qui entraîne des gaspillages d’énergie importants », a déclaré Mark Rydon, directeur de la stratégie et co-fondateur de la plate-forme de calcul cloud distribué Aethir, à mon intention. « Les opérations centralisées créent souvent un déséquilibre entre la disponibilité des ressources et les besoins de consommation, ce qui amène l’industrie à un point critique où les progrès pourraient risquer de compromettre les objectifs environnementaux à mesure que les demandes d’IA augmentent. »
Les dirigeants de l’industrie s’attaquent désormais au défi de front, en investissant dans des conceptions plus vertes et des architectures énergétiquement efficaces pour les centres de données. Les efforts vont de l’adoption de sources d’énergie renouvelable à la création de systèmes de refroidissement plus efficaces qui peuvent compenser les grandes quantités de chaleur générées par les charges de travail d’IA gen.
Révolutionner les centres de données pour un avenir plus vert
Lenovo a récemment présenté le ThinkSystem N1380 Neptune, un bond en avant dans la technologie de refroidissement liquide pour les centres de données. L’entreprise affirme que l’innovation permet déjà aux organisations de déployer des calculs haute performance pour les charges de travail d’IA gen avec une consommation d’énergie nettement inférieure – jusqu’à 40 % moins de puissance dans les centres de données. Le N1380 Neptune, qui utilise le dernier matériel NVIDIA, notamment les GPU Blackwell et GB200, permet de gérer des modèles d’IA à trillion de paramètres dans un ensemble compact. Lenovo a déclaré qu’il entend ouvrir la voie à des centres de données qui peuvent fonctionner avec des racks de serveurs de 100 kW+ sans avoir besoin de climatisation dédiée.
« Nous avons identifié une exigence importante de la part de nos consommateurs actuels : les centres de données consomment plus d’énergie lorsqu’ils gèrent les charges de travail d’IA en raison d’architectures de refroidissement obsolètes et de structures traditionnelles », a déclaré Robert Daigle, directeur mondial de l’IA chez Lenovo, à mon intention. « Pour mieux comprendre cela, nous avons collaboré avec un client de calcul haute performance (HPC) pour analyser sa consommation d’énergie, ce qui nous a conduit à la conclusion que nous pouvions réduire la consommation d’énergie de 40 %. » Il a ajouté que l’entreprise a pris en compte des facteurs tels que la puissance des ventilateurs et la consommation d’énergie des unités de refroidissement, en les comparant avec les systèmes standard disponibles via le service d’évaluation des centres de données de Lenovo, pour développer la nouvelle architecture de centre de données en partenariat avec Nvidia.
La société de conseil en technologie de l’information britannique AVEVA a déclaré qu’elle utilise l’analyse prédictive pour identifier les problèmes avec les compresseurs de centre de données, les moteurs, les équipements de HVAC, les gestionnaires d’air et plus encore.
« Nous avons constaté que c’est la formation préalable de l’IA générative qui consomme une énorme quantité de puissance », a déclaré Jim Chappell, responsable de l’IA et de l’analyse avancée chez AVEVA, à mon intention. « Grâce à nos systèmes d’IA prédictifs, nous visons à identifier les problèmes bien avant tout système SCADA ou de contrôle, ce qui permet aux exploitants de centres de données de résoudre les problèmes d’équipement avant qu’ils ne deviennent de graves problèmes. De plus, nous disposons d’un assistant Vision AI qui s’intègre de manière native à nos systèmes de contrôle pour aider à trouver d’autres types d’anomalies, notamment les points chauds de température lorsqu’il est utilisé avec une caméra d’imagerie thermique. »
Pendant ce temps, l’informatique décentralisée pour la formation et le développement d’IA via les GPU sur le cloud émerge comme une alternative. Le Rydon d’Aethir a expliqué que, en distribuant les tâches de calcul sur un réseau plus large et plus adaptable, l’utilisation de l’énergie peut être optimisée en alignant la demande de ressources sur la disponibilité, ce qui entraîne des réductions importantes des déchets dès le départ.
« Au lieu de compter sur de grands centres de données centralisés, notre infrastructure « Edge » répartit les tâches de calcul sur des nœuds plus proches de la source de données, ce qui réduit considérablement la charge énergétique pour le transfert de données et réduit la latence », a déclaré Rydon. « Le réseau Aethir Edge minimise le besoin de systèmes de refroidissement haute puissance constants, car les charges de travail sont réparties sur différents environnements plutôt que concentrées dans un seul emplacement, ce qui aide à éviter les systèmes de refroidissement gourmands en énergie typiques des centres de données centralisés. »
De même, des sociétés comme Amazon et Google expérimentent des sources d’énergie renouvelable pour gérer les besoins croissants en puissance dans leurs centres de données. Microsoft, par exemple, investit massivement dans des sources d’énergie renouvelable et des technologies qui améliorent l’efficacité pour réduire la consommation d’énergie de ses centres de données. Google a également pris des mesures pour passer à une énergie carbone-free et explorer des systèmes de refroidissement qui minimisent l’utilisation de puissance dans les centres de données. « L’énergie nucléaire est probablement la voie la plus rapide vers des centres de données carbone-free. Les principaux fournisseurs de centres de données tels que Microsoft, Amazon et Google investissent désormais massivement dans ce type de production d’énergie pour l’avenir. Avec les petits réacteurs modulaires (SMR), la flexibilité et le temps de production en font une option encore plus viable pour atteindre zéro émission nette », a ajouté Chappell d’AVEVA.
L’IA et la durabilité des centres de données peuvent-elles coexister ?
Ugur Tigli, CTO de la plate-forme d’infrastructure d’IA MinIO, affirme que, même si nous espérons un avenir où l’IA peut progresser sans une augmentation massive de la consommation d’énergie, cela n’est pas réaliste à court terme. « Les impacts à long terme sont plus difficiles à prédire », a-t-il déclaré à mon intention, « mais nous allons voir un changement dans la main-d’œuvre, et l’IA contribuera à améliorer la consommation d’énergie dans l’ensemble. » Tigli estime que, à mesure que l’efficacité énergétique devient une priorité sur le marché, nous allons voir une croissance du calcul accompagnée d’une diminution de la consommation d’énergie dans d’autres secteurs, en particulier à mesure qu’ils deviennent plus efficaces.
Il a également souligné qu’il existe un intérêt croissant parmi les consommateurs pour des solutions d’IA plus vertes. « Imaginez une application d’IA qui fonctionne à 90 % d’efficacité mais utilise seulement la moitié de la puissance – c’est le type d’innovation qui pourrait vraiment décoller », a-t-il ajouté. Il est clair que l’avenir de l’IA ne concerne pas seulement l’innovation, mais également la durabilité des centres de données. Que ce soit par le développement de matériel plus efficace ou de moyens plus intelligents d’utiliser les ressources, la manière dont nous gérons la consommation d’énergie de l’IA aura une grande influence sur la conception et l’exploitation des centres de données.
Rydon a souligné l’importance des initiatives à l’échelle de l’industrie qui se concentrent sur des conceptions de centres de données durables, des charges de travail d’IA énergétiquement efficaces et le partage de ressources ouvertes. « Ce sont des étapes cruciales vers des opérations plus vertes », a-t-il déclaré. « Les entreprises qui utilisent l’IA devraient s’associer à des sociétés de technologie pour créer des solutions qui réduisent l’impact environnemental. En travaillant ensemble, nous pouvons orienter l’IA vers un avenir plus durable. »












