Inteligência artificial
Google acaba de divulgar números reais sobre o uso de energia da IA — e eles não são o que você pensa

Todo mundo está falando sobre a enorme pegada energética da IA. Você já viu as manchetes: "ChatGPT usa tanta eletricidade quanto um pequeno país" ou "Cada consulta de IA bebe uma garrafa d'água".
Google acabamos de publicar dados reais de seus sistemas de produção, e os números contam uma história completamente diferente.
O custo real de energia da sua consulta de IA
Aqui está o que o Google descobriu: a mediana Gemini Um prompt de texto consome 0.24 watts-hora de energia. Isso é menos eletricidade do que assistir TV por nove segundos. Consumo de água? Cinco gotas. Não cinco copos. Cinco gotas.
A diferença entre a percepção pública e a realidade é enorme. Estimativas anteriores indicavam que os prompts de IA consumiam de 10 a 50 mililitros de água por consulta. Alguns estudos sugeriram um consumo de energia 30 vezes maior do que o medido pelo Google em produção.
Por que a diferença tão grande? Porque ninguém havia medido sistemas reais em escala até agora. Estudos acadêmicos realizam testes isolados em hardware subutilizado. Basicamente, eles medem a eficiência de combustível de um carro enquanto ele está parado na garagem.
A melhoria de 44x
O Google reduziu suas emissões de carbono de IA em 44 vezes em um ano. Não 44% — 44 vezes.
Não se trata de uma melhoria teórica em laboratório. Isso está acontecendo agora mesmo nos sistemas que atendem bilhões de consultas. Eles conseguiram isso por meio de uma combinação de otimização de software (melhoria de 33x) e fontes de energia mais limpas (melhoria de 1.4x).
A maioria dos estudos analisa apenas os chips de IA que realizam os cálculos. É como medir o consumo de energia de um restaurante contando apenas os fornos, ignorando as geladeiras, as luzes e o sistema de climatização.
Os dados do Google mostram o panorama completo: sim, os aceleradores de IA usam 58% da energia. Mas você também precisa de processadores e memória comuns (24%), capacidade de backup para confiabilidade (10%) e sistemas de resfriamento (8%). Ignore qualquer um desses fatores na sua medição e seus números basicamente não farão sentido.
Quando o Google aplicou a metodologia restrita que todos os outros usam — medindo apenas os chips de IA em máquinas totalmente utilizadas —, o consumo de energia caiu para 0.10 watt-hora. O sistema de produção real consome 2.4 vezes mais energia porque os sistemas reais precisam de redundância, refrigeração e infraestrutura de suporte.
O que isso realmente significa para o futuro da IA
A narrativa em torno do consumo de energia da IA precisa ser revista de realidade. Sim, a IA consome energia. Mas sistemas devidamente otimizados são muito mais eficientes do que os cenários catastróficos sugerem.
O contexto importa aqui. Esses 0.24 watts-hora por consulta? Os americanos consomem cerca de 30 quilowatts-hora de eletricidade por dia, em média. Seriam necessárias 125,000 consultas de IA para corresponder ao consumo típico de energia de uma casa em um dia.
A história do consumo de água é ainda mais dramática. Aquelas cinco gotas de água por consulta? Você usa mais água no primeiro segundo em que lava as mãos.
A pilha de otimização
O Google não está alcançando esses números por meio de um único avanço. Eles estão otimizações de empilhamento em todas as camadas do sistema.
Eles estão executando modelos menores de "rascunho" que esboçam respostas e, em seguida, verificam com modelos maiores somente quando necessário. Eles estão agrupando milhares de consultas para maior eficiência. Estão usando chips personalizados, projetados especificamente para cargas de trabalho de IA, que são 30 vezes mais eficientes do que a primeira geração.
Seus data centers operam com apenas 9% de sobrecarga acima do mínimo teórico — basicamente o mais eficiente possível fisicamente. E são cada vez mais abastecidos por energia limpa, reduzindo as emissões mesmo com o aumento do consumo de eletricidade.
ponto de partida
A verdadeira história é que sistemas de IA eficientes podem ser muito mais sustentáveis do que se teme, mas isso requer uma otimização abrangente que a maior parte da indústria ainda não alcançou.
Isso só funciona quando as empresas realmente otimizam todo o seu conjunto e mensuram corretamente. As empresas que tratam a infraestrutura de IA como algo secundário, operando sistemas ineficientes em redes elétricas poluentes? São elas que criam os problemas com os quais todos se preocupam.
A lacuna entre sistemas de IA eficientes e ineficientes é enorme. E, neste momento, a maior parte da indústria ainda utiliza a versão ineficiente.