Connect with us

Líderes de opinión

El creciente apetito de energía de la IA: ¿Están preparados los centros de datos para seguir el ritmo?

mm

A medida que la inteligencia artificial (IA) avanza a toda velocidad, sus demandas de energía están sometiendo a los centros de datos a un punto de ruptura. Las tecnologías de IA de próxima generación, como la inteligencia artificial generativa (IA genética), no solo están transformando industrias, sino que también su consumo de energía está afectando casi todos los componentes de los servidores de datos, desde las CPU y la memoria hasta los aceleradores y la red.

Las aplicaciones de IA genética, como Copilot de Microsoft y ChatGPT de OpenAI, requieren más energía que nunca antes. Para 2027, el entrenamiento y el mantenimiento de estos sistemas de IA podrían consumir suficiente electricidad para alimentar a un país pequeño durante un año completo. Y la tendencia no se está desacelerando: en la última década, la demanda de energía para componentes como CPU, memoria y red se estima que crecerá un 160% para 2030, según un informe de Goldman Sachs.

El uso de grandes modelos de lenguaje también consume energía. Por ejemplo, una consulta a ChatGPT consume aproximadamente diez veces más que una búsqueda tradicional de Google. Dada la enorme demanda de energía de la IA, ¿pueden los avances rápidos de la industria ser gestionados de manera sostenible, o contribuirán aún más al consumo de energía global? La investigación reciente de McKinsey muestra que alrededor del 70% de la creciente demanda en el mercado de centros de datos se dirige hacia instalaciones equipadas para manejar cargas de trabajo de IA avanzadas. Este cambio está cambiando fundamentalmente la forma en que se construyen y operan los centros de datos, ya que se adaptan a los requisitos únicos de estas tareas de IA genética de alta potencia.

“Los centros de datos tradicionales a menudo operan con equipos envejecidos y consumidores de energía y capacidades fijas que luchan por adaptarse a las cargas de trabajo fluctuantes, lo que lleva a un desperdicio de energía significativo”, Mark Rydon, Director de Estrategia y cofundador de la plataforma de computación en la nube distribuida Aethir, me dijo. “Las operaciones centralizadas a menudo crean un desequilibrio entre la disponibilidad de recursos y las necesidades de consumo, lo que lleva a la industria a un punto crítico en el que los avances podrían arriesgar los objetivos ambientales a medida que crecen las demandas impulsadas por la IA”.

Los líderes de la industria ahora están abordando el desafío de frente, invirtiendo en diseños más verdes y arquitecturas de centros de datos eficientes en términos de energía. Los esfuerzos van desde la adopción de fuentes de energía renovable hasta la creación de sistemas de enfriamiento más eficientes que pueden compensar las grandes cantidades de calor generadas por las cargas de trabajo de IA genética.

Revolutionando los centros de datos para un futuro más verde

Lenovo presentó recientemente el ThinkSystem N1380 Neptune, un avance en la tecnología de enfriamiento líquido para centros de datos. La empresa afirma que la innovación ya está permitiendo a las organizaciones implementar computación de alta potencia para cargas de trabajo de IA genética con un uso de energía significativamente menor, hasta un 40% menos de energía en los centros de datos. N1380 Neptune aprovecha el hardware más reciente de NVIDIA, incluidos los GPU Blackwell y GB200, lo que permite el manejo de modelos de IA de trilliones de parámetros en una configuración compacta. Lenovo dijo que busca allanar el camino para que los centros de datos puedan operar sin la necesidad de aire acondicionado dedicado en estantes de servidores de 100KW o más.

“Identificamos una necesidad significativa de nuestros consumidores actuales: los centros de datos están consumiendo más energía al manejar cargas de trabajo de IA debido a arquitecturas de enfriamiento obsoletas y marcos estructurales tradicionales”, Robert Daigle, Director Global de IA en Lenovo, me dijo. “Para entender esto mejor, colaboramos con un cliente de computación de alto rendimiento (HPC) para analizar su consumo de energía, lo que nos llevó a la conclusión de que podríamos reducir el uso de energía en un 40%”. Agregó que la empresa tuvo en cuenta factores como la potencia del ventilador y el consumo de energía de las unidades de enfriamiento, comparándolos con los sistemas estándar disponibles a través del servicio de evaluación de centros de datos de Lenovo, para desarrollar la nueva arquitectura de centro de datos en asociación con Nvidia.

La empresa de consultoría de tecnología de la información con sede en el Reino Unido, AVEVA, dijo que está utilizando análisis predictivos para identificar problemas con los compresores de centros de datos, motores, equipos de HVAC, manipuladores de aire y más.

“Encontramos que es el preentrenamiento de la IA genética lo que consume una gran cantidad de energía”, Jim Chappell, Jefe de IA y Análisis Avanzados de AVEVA, me dijo. “A través de nuestros sistemas de IA impulsados por predicciones, nos proponemos encontrar problemas mucho antes de que cualquier sistema SCADA o de control, lo que permite a los operadores de centros de datos solucionar problemas de equipo antes de que se conviertan en problemas importantes. Además, tenemos un Asistente de Visión de IA que se integra de forma nativa con nuestros sistemas de control para ayudar a encontrar otros tipos de anomalías, incluidos puntos calientes de temperatura cuando se utiliza con una cámara de imagen térmica”.

Mientras tanto, la computación descentralizada para el entrenamiento y el desarrollo de IA a través de GPU en la nube está surgiendo como una alternativa. Rydon de Aethir explicó que al distribuir tareas computacionales en una red más amplia y adaptable, se puede optimizar el uso de energía, alineando la demanda de recursos con la disponibilidad, lo que lleva a reducciones sustanciales del desperdicio desde el principio.

“En lugar de depender de centros de datos centralizados grandes, nuestra infraestructura de ‘Edge’ dispersa tareas computacionales a nodos más cercanos a la fuente de datos, lo que reduce drásticamente la carga de energía para la transferencia de datos y reduce la latencia”, dijo Rydon. “La red de Aethir Edge minimiza la necesidad de sistemas de enfriamiento de alta potencia constantes, ya que las cargas de trabajo se distribuyen en varios entornos en lugar de concentrarse en una sola ubicación, lo que ayuda a evitar los sistemas de enfriamiento consumidores de energía típicos de los centros de datos centralizados”.

De manera similar, empresas como Amazon y Google están experimentando con fuentes de energía renovable para gestionar las crecientes necesidades de energía en sus centros de datos. Microsoft, por ejemplo, está invirtiendo mucho en fuentes de energía renovable y tecnologías que mejoran la eficiencia para reducir el consumo de energía de sus centros de datos. Google también ha dado pasos para cambiar a energía libre de carbono y explorar sistemas de enfriamiento que minimicen el uso de energía en los centros de datos. “La energía nuclear es probablemente el camino más rápido hacia centros de datos libres de carbono. Los principales proveedores de centros de datos, como Microsoft, Amazon y Google, ahora están invirtiendo fuertemente en este tipo de generación de energía para el futuro. Con reactores modulares pequeños (SMR), la flexibilidad y el tiempo de producción hacen que esta sea una opción aún más viable para lograr la neutralidad de carbono”, agregó Chappell de AVEVA.

¿Pueden coexistir la sostenibilidad de los centros de datos y la IA?

Ugur Tigli, CTO de la plataforma de infraestructura de IA MinIO, dice que aunque esperamos un futuro en el que la IA pueda avanzar sin un aumento significativo en el consumo de energía, eso simplemente no es realista a corto plazo. “Los impactos a largo plazo son más difíciles de predecir”, me dijo, “pero veremos un cambio en la fuerza laboral, y la IA ayudará a mejorar el consumo de energía en general”. Tigli cree que a medida que la eficiencia energética se convierte en una prioridad del mercado, veremos un crecimiento en la computación junto con una disminución en el uso de energía en otros sectores, especialmente a medida que se vuelven más eficientes.

También señaló que hay un interés creciente entre los consumidores por soluciones de IA más verdes. “Imagina una aplicación de IA que funciona al 90% de eficiencia pero solo utiliza la mitad de la energía, ese es el tipo de innovación que podría realmente despegar”, agregó. Está claro que el futuro de la IA no solo se trata de innovación, sino también de sostenibilidad de los centros de datos. Ya sea a través del desarrollo de hardware más eficiente o formas más inteligentes de utilizar los recursos, cómo gestionamos el consumo de energía de la IA influirá en gran medida el diseño y la operación de los centros de datos.

Rydon enfatizó la importancia de las iniciativas a nivel de la industria que se centran en diseños de centros de datos sostenibles, cargas de trabajo de IA eficientes en términos de energía y el intercambio abierto de recursos. “Estos son pasos cruciales hacia operaciones más verdes”, dijo. “Las empresas que utilizan IA deben asociarse con empresas de tecnología para crear soluciones que reduzcan el impacto ambiental. Al trabajar juntos, podemos dirigir a la IA hacia un futuro más sostenible”.

Victor Dey es un editor y escritor de tecnología que cubre A.I., crypto, data science, metaverse y ciberseguridad dentro del ámbito empresarial. Cuenta con medio decenio de experiencia en medios y A.I. trabajando en medios de comunicación conocidos como VentureBeat, Metaverse Post, Observer y otros. Victor ha sido mentor de estudiantes emprendedores en programas de aceleración en universidades líderes como la Universidad de Oxford y la Universidad del Sur de California, y tiene un título de Maestría en ciencia y análisis de datos.