Connect with us

Líderes de opinión

La Infraestructura Oculta que Impulsa el Auge de la IA

mm

El auge de la inteligencia artificial está ocurriendo a un ritmo que pocas industrias han experimentado. Los modelos están escalando, la intensidad de cálculo está aumentando y la demanda de capacidad de centros de datos sigue en aumento. A medida que las cargas de trabajo de IA empujan la densidad y las demandas de energía a extremos nuevos, la eficiencia de la infraestructura es tanto el desafío más crítico como el más difícil de resolver.

El desarrollo de centros de datos está cambiando la demanda de energía y agua en las comunidades que los albergan. La pregunta a responder en la próxima década es si la infraestructura de IA en la nube, empresarial y de borde puede escalar de manera responsable cuando la refrigeración, la energía y la arquitectura del sistema son tan críticas como el cálculo en sí.

El Crecimiento de la IA Está Redefiniendo la Demanda de Recursos

Los centros de datos históricamente han representado una pequeña parte de la demanda de electricidad en EE. UU., pero eso está cambiando rápidamente. En 2023, representaron aproximadamente el 4.4% del consumo total de electricidad en EE. UU.. Para 2028, se proyecta que esa cifra aumente a entre el 6.7% y el 12%. Al mismo tiempo, se espera que los precios de la energía sigan aumentando hasta 2026, y se proyecta que los centros de datos enfrentarán una escasez de energía del 20% hasta 2028. El aumento en la demanda de energía de los centros de datos, combinado con la electrificación creciente de todo, desde automóviles hasta calefacción para el hogar, está sometiendo a presión una red ya sobrecargada, y ejerciendo presión sobre los hogares, las comunidades y las empresas por igual.

La refrigeración representa una parte significativa del consumo total de energía de los centros de datos y es uno de los principales impulsores de la carga general de la instalación. La refrigeración por aire ha sido la base de la gestión térmica de los centros de datos durante décadas, dependiendo de enfriadores, torres de enfriamiento y aire acondicionado para mantener temperaturas óptimas de funcionamiento.

Pero con cada nueva generación de hardware de IA, los centros de datos están empaquetando significativamente más potencia de cálculo en espacios más pequeños. Esto resulta en más calor generado. Más calor demanda más refrigeración, y más refrigeración consume más energía y agua. La eficiencia ya no es una preocupación marginal; es un requisito de diseño fundamental.

Minimizar el Impacto en la Comunidad Es Ahora un Imperativo Empresarial

Los centros de datos operan en comunidades que dependen de precios de electricidad estables y acceso confiable a agua. A medida que aumenta la conciencia pública sobre el consumo de recursos de los centros de datos, las comunidades y los reguladores están examinando cada vez más su impacto.

En The Dalles, Oregón, la expansión de las operaciones del centro de datos de Google planteó preocupaciones sobre el uso de agua y el impacto ambiental a largo plazo. En 2012, el gigante tecnológico utilizó el 12% del suministro de agua de The Dalles; para 2024, esa cantidad había aumentado a casi un tercio. Esto puso a la empresa bajo escrutinio público, planteando preocupaciones sobre su uso de recursos y su impacto en la infraestructura y las necesidades de la comunidad locales.

Los estados individuales han introducido legislación que podría limitar la construcción de nuevos centros de datos. A nivel federal, la administración actual, aunque en general es partidaria de la IA, ha alentado a las empresas tecnológicas a asegurarse de que sus desarrollos de centros de datos no aumenten los precios de la electricidad para los hogares ni estresen los suministros de agua regionales.

Está claro que el panorama está cambiando para las empresas tecnológicas y los desarrolladores de centros de datos. La reputación corporativa ahora depende de cómo las empresas gestionen su huella física y sus relaciones con las comunidades que albergan los centros de datos.

De Compromisos Públicos a Cambios a Nivel de Infraestructura

En respuesta a este cambio, las empresas tecnológicas como Microsoft y OpenAI han hecho compromisos públicos para “pagar su parte” para abordar las preocupaciones comunitarias, públicas y ambientales que surgen de su crecimiento rápido. Microsoft publicó un marco de infraestructura de primera para la comunidad que establece compromisos explícitos sobre cómo construirá y operará centros de datos de IA en los Estados Unidos. Si bien estas iniciativas señalan tanto un progreso significativo como una intención clara, abordan solo una parte del desafío. Una solución más concreta y duradera requiere reducir el consumo de recursos a nivel de infraestructura.

Eso comienza con la refrigeración. El enfoque tradicional de la refrigeración por aire es insuficiente para el hardware de IA de hoy. Eso incluye no solo los recursos de cálculo (CPUs y GPUs), sino también los suministros de energía, el almacenamiento y la conectividad. Para una mayor eficiencia térmica, la refrigeración debe centrarse directamente en los componentes que generan calor, en lugar del espacio que los rodea.

La refrigeración líquida de precisión captura el calor directamente a nivel de componente utilizando fluidos dieléctricos respetuosos con el medio ambiente en lugar de enfriar toda la habitación. Estos sistemas pueden reducir el uso de energía hasta un 40% y el consumo de agua hasta un 96%, mientras mejoran la confiabilidad y prolongan la vida útil del hardware. Además de ser casi silenciosos, también protegen los componentes sensibles de los contaminantes transportados por el aire.

Diseñar Infraestructura para una Realidad con Restricciones de Recursos

Las organizaciones no tienen que elegir entre costo, confiabilidad y sostenibilidad. Cuando la infraestructura se diseña de manera holística, estos objetivos se refuerzan mutuamente. La reducción del consumo de energía reduce los gastos operativos, mientras que la reducción del uso de agua mitiga el riesgo regulatorio y el escrutinio público. La gestión térmica mejorada también mejora el rendimiento del sistema y prolonga la vida útil de los componentes de hardware críticos.

La infraestructura que inherentemente consume menos energía y agua se alinea más naturalmente con los marcos de políticas y estándares ambientales emergentes. Las empresas que tengan éxito priorizarán este cambio y adoptarán soluciones de gestión térmica avanzadas y sostenibles. El futuro de la infraestructura estará moldeado no solo por la innovación en software, sino también por el diseño intencional de la infraestructura.

Francesca Cain-Watson se desempeña como Directora de Ventas, Norteamérica en Iceotope, donde lidera iniciativas de crecimiento de ingresos estratégicos y ayuda a las organizaciones en centros de datos y infraestructura de inteligencia artificial con soluciones innovadoras y sostenibles, impulsando la eficiencia y el rendimiento utilizando el enfriamiento líquido de precisión de Iceotope. Ella es reconocida por construir y liderar equipos de ventas de alto rendimiento, entregando resultados consistentes en mercados tecnológicos competitivos y cultivando relaciones a largo plazo con los clientes.