Contáctenos

Google acaba de publicar cifras reales sobre el uso de energía de la IA, y no son lo que crees

Inteligencia Artificial

Google acaba de publicar cifras reales sobre el uso de energía de la IA, y no son lo que crees

mm

Todo el mundo habla del enorme consumo energético de la IA. Seguro has visto titulares como: «ChatGPT consume tanta electricidad como un país pequeño» o «Cada consulta de IA consume una botella de agua».

Google Acabamos de publicar datos reales de sus sistemas de producción, y los números cuentan una historia completamente diferente.

El costo energético real de su consulta de IA

Esto es lo que encontró Google: La mediana Gemini El mensaje de texto consume 0.24 vatios-hora de energía. Eso es menos electricidad que ver la televisión durante nueve segundos. ¿Consumo de agua? Cinco gotas. No cinco vasos. Cinco gotas.

La brecha entre la percepción pública y la realidad es enorme. Estimaciones anteriores indicaban que las indicaciones de IA consumían entre 10 y 50 mililitros de agua por consulta. Algunos estudios sugirieron un consumo de energía 30 veces superior al que Google mide en producción.

¿A qué se debe esta enorme diferencia? Porque hasta ahora nadie ha medido sistemas reales a escala. Los estudios académicos realizan pruebas aisladas con hardware infrautilizado. Básicamente, miden el consumo de combustible de un coche mientras está parado en la entrada.

Calculando nuestro consumo energético de IA

La mejora de 44x

Google redujo las emisiones de carbono de su IA 44 veces en un año. No un 44 %, sino 44 veces.

No se trata de una mejora teórica de laboratorio. Está ocurriendo ahora mismo en los sistemas que atienden miles de millones de consultas. Lo lograron mediante una combinación de optimización de software (mejora de 33 veces) y fuentes de energía más limpias (mejora de 1.4 veces).

La mayoría de los estudios solo analizan los chips de IA que realizan los cálculos. Es como medir el consumo energético de un restaurante contando solo los hornos, sin contar los refrigeradores, las luces ni el sistema de climatización.

Los datos de Google muestran el panorama completo: Sí, los aceleradores de IA consumen el 58 % de la energía. Pero también se necesitan procesadores y memoria estándar (24 %), capacidad de respaldo para mayor fiabilidad (10 %) y sistemas de refrigeración (8 %). Si se omite alguno de estos factores en la medición, las cifras carecen de sentido.

Cuando Google aplicó la metodología limitada que usan los demás —medir únicamente los chips de IA en máquinas a plena capacidad—, su consumo energético se redujo a 0.10 vatios-hora. El sistema de producción real consume 2.4 veces más energía porque necesita redundancia, refrigeración e infraestructura de soporte.

Lo que esto realmente significa para el futuro de la IA

La narrativa sobre el consumo energético de la IA necesita una revisión de la realidad. Sí, la IA consume energía. Pero los sistemas correctamente optimizados son mucho más eficientes de lo que sugieren los escenarios catastróficos.

El contexto importa. ¿Esos 0.24 vatios-hora por consulta? Los estadounidenses consumen un promedio de unos 30 kilovatios-hora de electricidad al día. Se necesitarían 125,000 consultas de IA para igualar el consumo energético diario típico de un hogar.

La historia del consumo de agua es aún más dramática. ¿Esas cinco gotas de agua por consulta? Usas más agua en el primer segundo de lavarte las manos.

La pila de optimización

Google no está logrando estas cifras mediante un único avance. Están... Apilar optimizaciones en todas las capas del sistema.

Están ejecutando modelos "borradores" más pequeños que esbozan las respuestas y luego las verifican con modelos más grandes solo cuando es necesario. Están agrupando miles de consultas para mayor eficiencia. Utilizan chips personalizados, diseñados específicamente para cargas de trabajo de IA, que son 30 veces más eficientes que su primera generación.

Sus centros de datos funcionan con solo un 9 % de sobrecarga por encima del mínimo teórico, prácticamente la máxima eficiencia posible. Además, se alimentan cada vez más con energía limpia, lo que reduce las emisiones incluso cuando aumenta el consumo de electricidad.

Resumen Final

La verdadera historia es que los sistemas de IA eficientes pueden ser mucho más sustentables de lo que comúnmente se teme, pero esto requiere una optimización integral que la mayor parte de la industria aún no ha logrado.

Esto solo funciona cuando las empresas optimizan su infraestructura de IA al completo y miden correctamente. ¿Las empresas que tratan la infraestructura de IA como algo secundario y utilizan sistemas ineficientes en redes eléctricas contaminadas? Son ellas las que crean los problemas que preocupan a todos.

La brecha entre sistemas de IA eficientes e ineficientes es enorme. Y, actualmente, la mayor parte de la industria aún utiliza la versión ineficiente.

Alex McFarland es un periodista y escritor sobre inteligencia artificial que explora los últimos avances en inteligencia artificial. Ha colaborado con numerosas empresas emergentes y publicaciones de IA en todo el mundo.