Connect with us

Le véritable goulet d’étranglement de l’IA : Puissance, refroidissement et physique de l’échelle

Intelligence artificielle

Le véritable goulet d’étranglement de l’IA : Puissance, refroidissement et physique de l’échelle

mm

L’intelligence artificielle a progressé à un rythme extraordinaire au cours de la dernière décennie. Des GPU plus rapides, des clusters plus importants et des architectures révolutionnaires ont débloqué des avancées qui semblaient impossibles. Pourtant, alors que l’industrie se dirige vers des modèles à trillion de paramètres et des usines d’IA à l’échelle hyperscale, le prochain obstacle n’a rien à voir avec les algorithmes. Le véritable goulet d’étranglement aujourd’hui est physique : puissance, refroidissement et infrastructure requise pour maintenir le calcul à l’échelle planétaire.

La question n’est plus de savoir combien de puces vous pouvez fabriquer, mais si vous pouvez fournir les gigawatts, l’eau et les lignes de transmission nécessaires pour les faire fonctionner. L’infrastructure, et non le silicium, est ce qui déterminera le rythme de l’IA dans les années à venir.

Gigawatts plutôt que gigaflops

Le projet « Stargate » d’OpenAI, construit avec Oracle et SoftBank, vise près de 7 gigawatts de capacité à travers les campus américains — comparable à plusieurs réacteurs nucléaires. À cette échelle, le défi principal n’est pas la production de GPU, mais la sécurisation de centrales électriques et de postes de transformation pour les faire fonctionner.

La demande de Microsoft est tout aussi stupéfiante. Ses charges de travail d’IA devraient requérir autant d’électricité que la région entière de la Nouvelle-Angleterre d’ici 2030. Cela explique en partie pourquoi l’entreprise a investi des dizaines de milliards dans des projets de renouvelable et poursuit également des options plus expérimentales comme la fusion nucléaire et les réacteurs nucléaires avancés.

La dynamique se propage dans la politique énergétique. Dans l’interconnexion PJM, l’organisation de transmission régionale qui gère le réseau pour plus de 65 millions de personnes à travers 13 États et Washington, D.C., les services publics explorent des mécanismes de réduction pour les centres de données pendant les périodes de pointe. Les grandes entreprises technologiques font du lobbying contre de telles restrictions, mais le fait que les régulateurs les envisagent déjà montre à quel point l’IA est devenue centrale dans la planification du réseau.

Le défi du refroidissement

Fournir de l’électricité ne constitue que la moitié du problème. Une fois que l’énergie atteint les racks, le prochain défi est la chaleur. Chaque GPU haut de gamme consomme environ 700 watts, et avec des racks abritant des centaines de GPU, les densités atteignent 100 à 600 kilowatts par rack. Le refroidissement par air, la norme de l’industrie depuis des décennies, devient inopérable au-delà d’environ 40 kilowatts par rack en raison d’inefficiences de débit d’air et de recirculation.

Le refroidissement par liquide est donc passé du niche au mainstream. Les dernières plateformes Blackwell refroidies par liquide de NVIDIA sont conçues pour les clusters d’IA à l’échelle hyperscale et offrent 25 fois meilleure efficacité énergétique et 300 fois plus d’efficacité en eau que les racks refroidis par air. L’entreprise a également collaboré avec Vertiv sur une architecture de référence qui peut gérer plus de 130 kilowatts par rack, ce qui rend les déploiements de GPU denses réalisables.

Les startups innovent également. Corintis, une entreprise suisse qui intègre des microcanaux directement dans les substrats de puces, a récemment levé 24 millions de dollars et compte déjà Microsoft parmi ses clients. L’équipe de recherche de Microsoft a démontré des canaux microfluidiques gravés dans l’emballage de puces, réduisant les températures de pointe des GPU de jusqu’à 65 pour cent et triplant l’efficacité par rapport aux plaques froides traditionnelles. Ces technologies permettent de maintenir les GPU en fonctionnement à plein régime sans faire fondre le centre de données.

L’eau en tant que variable stratégique

Le refroidissement par liquide introduit une autre variable : la consommation d’eau. Les systèmes à eau refroidie et à eau glacée peuvent nécessiter des volumes énormes lorsqu’ils sont mis à l’échelle sur des campus de plusieurs centaines de mégawatts. À Phoenix, des grappes de centres de données peuvent demander des centaines de millions de gallons d’eau par jour, suscitant des inquiétudes dans les régions touchées par la sécheresse.

Cela a déclenché le développement de systèmes de refroidissement à zéro eau et en boucle fermée. IEEE Spectrum a documenté des stratégies telles que des bains d’immersion diélectrique scellés, des refroidisseurs à sec et des refroidisseurs sans eau qui réduisent l’utilisation d’eau potable à presque zéro. Pendant ce temps, certains opérateurs expérimentent la réutilisation de la chaleur perdue. Des projets comme Aquasar et iDataCool ont montré comment les boucles de refroidissement à eau chaude peuvent alimenter les systèmes de chauffage de bâtiments ou les refroidisseurs à absorption, recyclant une grande partie de l’énergie qui serait autrement perdue.

Le compromis est souvent entre l’eau et l’électricité : les systèmes en boucle fermée ou à sec consomment plus d’énergie, tandis que les conceptions à évaporation économisent de l’énergie mais puisent lourdement dans l’eau. Dans les régions où l’eau est rare, la politique donne de plus en plus la priorité à la conservation de l’eau, même si cela signifie une consommation d’énergie plus élevée.

Infrastructure et réseau

Même avec des solutions de puissance et de refroidissement en place, le dernier goulet d’étranglement est l’infrastructure. Les décisions de localisation déterminent désormais les gagnants et les perdants dans la course à l’IA.

La demande de 80 milliards de dollars de Microsoft pour le campus Fairwater dans le Wisconsin illustre comment la localisation stratégique est devenue. Le site s’étend sur 315 acres, abrite des centaines de milliers de GPU et a été choisi pour son accès aux postes de transformation, aux lignes de fibre et à l’eau souterraine. La conception met également l’accent sur le refroidissement en boucle fermée pour minimiser l’impact sur l’eau.

Pour soutenir sa charge croissante, Microsoft a signé un accord historique avec Brookfield pour ajouter 10,5 gigawatts de capacité renouvelable d’ici 2030. Dans le même temps, il a soutenu des projets plus expérimentaux tels qu’une usine de fusion nucléaire en construction par Helion Energy, prévue pour alimenter les centres de données d’ici 2028, et un accord de 20 ans pour réouvrir la centrale nucléaire de Three Mile Island en Pennsylvanie.

Amazon et Google prennent des mesures similaires, sécurisant des sites à côté d’usines nucléaires et développant leurs propres portefeuilles d’énergie propre. En Irlande, où les centres de données consomment déjà plus de puissance que tous les ménages combinés, les régulateurs ont gelé les nouvelles approbations jusqu’à au moins 2028, soulignant à quel point la politique et les autorisations peuvent faire dérailler même les projets les mieux financés.

Exploitation plus intelligente : l’IA gérant l’IA

Intéressant, l’IA elle-même est utilisée pour gérer la charge d’infrastructure. L’apprentissage par renforcement a été déployé dans des centres de données de production pour optimiser les systèmes de refroidissement, produisant 14 à 21 pour cent d’économie d’énergie sans compromettre la sécurité. Les jumeaux numériques et la modélisation prédictive sont également utilisés pour anticiper les points chauds, pré-refroidir les équipements et déplacer les charges de travail vers des heures plus fraîches ou des périodes de surplus d’énergie renouvelable.

Google a déjà démontré comment l’apprentissage automatique peut réduire les besoins de refroidissement des centres de données de 40 pour cent, et d’autres opérateurs adoptent des systèmes similaires. À mesure que les coûts de puissance et de refroidissement augmentent, ces économies d’exploitation deviennent un avantage concurrentiel essentiel.

Perspective stratégique

La trajectoire est claire. La demande d’IA devrait doubler la consommation d’électricité des centres de données à l’échelle mondiale d’ici 2030, avec des charges de travail d’IA qui représenteront une part à chiffres moyens de la consommation totale d’énergie dans le monde d’ici 2050. Alors que NVIDIA et d’autres fabricants de puces continuent de pousser les performances du silicium vers l’avant, la frontière pratique de l’IA sera définie par la rapidité avec laquelle les services publics peuvent construire de nouvelles capacités de production, de transmission et d’infrastructure de refroidissement.

Pour les entreprises qui construisent des produits d’IA, cela signifie que les feuilles de route sont de plus en plus liées à l’endroit où la capacité existe. Pour les investisseurs, les jeux les plus précieux peuvent être les services publics, les développeurs de transmission et les startups de refroidissement plutôt que seulement les fournisseurs de GPU. Et pour les décideurs politiques, le débat sur l’IA se déplace des questions d’éthique et de gouvernance des données aux questions de mégawatts, d’eau et de modernisation du réseau.

L’avenir de l’IA ne sera pas décidé uniquement dans les laboratoires de recherche et les fonderies de puces, mais aux postes de transformation, aux boucles de refroidissement et aux centrales électriques. La physique de l’échelle — et non seulement les mathématiques des algorithmes — est ce qui déterminera la vitesse et la portée de l’intelligence artificielle dans la décennie à venir.

Antoine est un leader visionnaire et partenaire fondateur de Unite.AI, animé par une passion inébranlable pour façonner et promouvoir l'avenir de l'IA et de la robotique. Un entrepreneur en série, il croit que l'IA sera aussi perturbatrice pour la société que l'électricité, et se fait souvent prendre en train de vanter le potentiel des technologies perturbatrices et de l'AGI.
En tant que futurist, il se consacre à explorer comment ces innovations vont façonner notre monde. En outre, il est le fondateur de Securities.io, une plateforme axée sur l'investissement dans les technologies de pointe qui redéfinissent l'avenir et remodelent des secteurs entiers.