Suivez nous sur

L'infrastructure cachée qui alimente l'essor de l'IA

Des leaders d'opinion

L'infrastructure cachée qui alimente l'essor de l'IA

mm

L'essor de l'intelligence artificielle se produit à un rythme que peu de secteurs ont connu. Les modèles se complexifient, la puissance de calcul augmente et la demande en capacité des centres de données ne cesse de croître. Face à des charges de travail d'IA qui poussent la densité et la consommation d'énergie à des niveaux extrêmes, l'efficacité des infrastructures représente à la fois le défi le plus crucial et le plus complexe à relever.

Le développement des centres de données redéfinit la demande en énergie et en eau des communautés qui les accueillent. La question cruciale pour la prochaine décennie est de savoir si les infrastructures de cloud, d'entreprise et d'IA en périphérie peuvent évoluer de manière responsable, sachant que le refroidissement, l'alimentation électrique et l'architecture système sont aussi essentiels que la puissance de calcul elle-même.

La croissance de l'IA redéfinit la demande en ressources

Historiquement, les centres de données ont représenté une faible part de la demande d'électricité aux États-Unis, mais cela est en train de changer rapidement. En 2023, elles représentaient environ 4.4 % de la consommation totale d'électricité des États-Unis.D’ici 2028, ce chiffre devrait passer entre 6.7 % et 12 %. Parallèlement, Les prix de l'énergie devraient continuer d'augmenter jusqu'en 2026. et Les centres de données devraient faire face à un déficit énergétique de 20 % d'ici 2028.La forte augmentation de la demande en électricité des centres de données, conjuguée à l'électrification croissante de tous les secteurs, des automobiles au chauffage domestique, met à rude épreuve un réseau électrique déjà surchargé et exerce une pression sur les ménages, les collectivités et les entreprises.

Le refroidissement représente une part importante de la consommation énergétique totale des centres de données et constitue l'un des principaux facteurs de leur consommation globale. Le refroidissement par air est la base de la gestion thermique des centres de données depuis des décennies, s'appuyant sur des refroidisseurs, des tours de refroidissement et la climatisation pour maintenir des températures de fonctionnement optimales.

Mais à chaque nouvelle génération de matériel d'IA, les centres de données intègrent une puissance de calcul considérablement accrue dans des espaces réduits. Il en résulte une production de chaleur plus importante. Cette chaleur accrue exige un refroidissement plus performant, et un refroidissement plus performant consomme davantage d'énergie et d'eau. L'efficacité n'est plus un détail ; c'est une exigence fondamentale de conception.

Minimiser l'impact sur la communauté est désormais un impératif pour les entreprises.

Les centres de données sont implantés dans des communautés qui dépendent de prix de l'électricité stables et d'un accès fiable à l'eau. Face à la prise de conscience croissante du public concernant la consommation de ressources des centres de données, les collectivités et les organismes de réglementation examinent de plus en plus attentivement leur impact.

À The Dalles, en Oregon, expansion des opérations des centres de données de Google L'entreprise a suscité des inquiétudes quant à sa consommation d'eau et à son impact environnemental à long terme. En 2012, elle utilisait 12 % des ressources en eau de The Dalles ; en 2024, cette part avait presque atteint le tiers. Cette situation a placé l'entreprise sous le feu des critiques, soulevant des interrogations sur son utilisation des ressources et son impact sur les infrastructures locales et les besoins de la communauté.

Les différents États ont introduit une législation qui pourrait limiter la construction de nouveaux centres de donnéesAu niveau fédéral, l'administration actuelle, tout en étant globalement favorable à l'IA, a encouragé les entreprises technologiques à veiller à ce que le développement de leurs centres de données n'entraîne pas une hausse des prix de l'électricité pour les ménages ni une mise à rude épreuve des ressources en eau régionales.

Il est clair que le paysage évolue pour les entreprises technologiques et les développeurs de centres de données. La réputation des entreprises repose désormais sur leur capacité à gérer efficacement leur empreinte physique et leurs relations avec les communautés qui accueillent ces centres.

Des engagements publics aux changements au niveau des infrastructures

En réponse à cette évolution, des entreprises technologiques comme Microsoft et OpenAI ont pris des engagements publics pour « financer eux-mêmes » les mesures visant à répondre aux préoccupations communautaires, publiques et environnementales liées à leur croissance rapide. Microsoft a publié un Cadre d'infrastructure axé sur la communauté Ce document définit des engagements explicites quant à la construction et à l'exploitation des centres de données d'IA aux États-Unis. Bien que ces initiatives témoignent de progrès significatifs et d'une volonté claire, elles ne répondent qu'à une partie du problème. Une solution plus concrète et durable exige une réduction de la consommation de ressources au niveau de l'infrastructure.

Tout commence par le refroidissement. Le refroidissement par air traditionnel est insuffisant pour le matériel d'IA actuel. Cela concerne non seulement les ressources de calcul (CPU et GPU), mais aussi l'alimentation, le stockage et le réseau. Pour une meilleure efficacité thermique, le refroidissement doit cibler directement les composants qui génèrent de la chaleur, plutôt que l'espace qui les entoure.

Le refroidissement liquide de précision capte la chaleur directement au niveau des composants grâce à des fluides diélectriques respectueux de l'environnement, au lieu de refroidir toute la pièce. Ces systèmes peuvent réduire la consommation d'énergie jusqu'à 40 % et la consommation d'eau jusqu'à 96 %.Ils améliorent la fiabilité et prolongent la durée de vie du matériel. Quasi silencieux, ils protègent également les composants sensibles des contaminants aéroportés.

Concevoir des infrastructures adaptées à une réalité aux ressources limitées

Les organisations n'ont pas à choisir entre coût, fiabilité et durabilité. Une conception holistique des infrastructures permet de renforcer mutuellement ces objectifs. Une consommation d'énergie réduite diminue les coûts d'exploitation, tandis qu'une consommation d'eau moindre atténue les risques réglementaires et les critiques du public. Une meilleure gestion thermique améliore également les performances du système et prolonge la durée de vie des composants matériels critiques.

Les infrastructures qui consomment intrinsèquement moins d'énergie et d'eau s'inscrivent plus naturellement dans les nouveaux cadres politiques et normes environnementales. Les entreprises qui réussiront privilégieront cette transition et adopteront des solutions de gestion thermique avancées et durables. L'avenir des infrastructures sera façonné non seulement par l'innovation logicielle, mais aussi par une conception réfléchie des infrastructures.

Francesca Cain-Watson occupe le poste de directrice des ventes pour l'Amérique du Nord chez GlacéotopeElle y pilote des initiatives stratégiques de croissance du chiffre d'affaires et accompagne les entreprises des secteurs des centres de données et de l'infrastructure d'IA en leur proposant des solutions innovantes et durables, optimisant ainsi leur efficacité et leurs performances grâce au refroidissement liquide de précision d'Iceotope. Elle est reconnue pour sa capacité à constituer et à diriger des équipes commerciales performantes, à obtenir des résultats constants sur des marchés technologiques concurrentiels et à bâtir des relations clients pérennes.