Inteligência artificial
O verdadeiro gargalo da IA: energia, resfriamento e a física da escala

A inteligência artificial avançou a um ritmo extraordinário na última década. GPUs mais rápidas, clusters maiores e arquiteturas revolucionárias desbloquearam avanços que antes pareciam impossíveis. No entanto, à medida que a indústria avança em direção a modelos de trilhões de parâmetros e fábricas de IA em hiperescala, a próxima barreira não tem nada a ver com algoritmos. O verdadeiro gargalo hoje é físico: energia, refrigeração e a infraestrutura necessária para sustentar a computação em escala planetária.
A questão não é mais quantos chips você consegue fabricar, mas se você consegue fornecer os gigawatts, a água e as linhas de transmissão necessárias para operá-los. A infraestrutura, não o silício, é o que definirá o ritmo da IA nos próximos anos.
Gigawatts sobre Gigaflops
O projeto “Stargate” da OpenAI, que está sendo construído com a Oracle e a SoftBank, tem como alvo quase 7 gigawatts de capacidade em campi nos EUA — comparável a vários reatores nucleares. Nessa escala, o principal desafio não é produzir GPUs, mas proteger usinas de energia e subestações para mantê-las funcionando.
A demanda da Microsoft é igualmente impressionante. Suas cargas de trabalho de IA são projetadas para requerem tanta eletricidade quanto toda a região da Nova Inglaterra até 2030. Isso ajuda a explicar por que a empresa investiu dezenas de bilhões em projetos renováveis e também está buscando opções mais experimentais, como fusão nuclear e reatores nucleares avançados.
A dinâmica está se refletindo na política energética. Na PJM Interconnection, a organização regional de transmissão que gerencia a rede para mais de 65 milhões de pessoas em 13 estados e em Washington, D.C., as concessionárias estão explorando mecanismos de redução para data centers durante o pico de demanda. Grandes empresas de tecnologia estão fazendo lobby contra tais restrições, mas o fato de os reguladores sequer as considerarem demonstra o quão central a IA se tornou para o planejamento da rede.
O desafio do resfriamento
O fornecimento de eletricidade é apenas metade do problema. Assim que a energia chega aos racks, o próximo desafio é o calor. Cada GPU de ponta consome cerca de 700 watts e, com racks hospedando centenas de GPUs, as densidades estão chegando a 100 a 600 quilowatts por rack. O resfriamento a ar, padrão da indústria há décadas, torna-se inviável acima de aproximadamente 40 quilowatts por rack devido a ineficiências no fluxo de ar e na recirculação.
O resfriamento líquido, portanto, deixou de ser um nicho e se tornou popular. O mais recente da NVIDIA plataformas Blackwell refrigeradas a líquido são projetados para clusters de IA em hiperescala e oferecem eficiência energética 25 vezes maior e eficiência hídrica 300 vezes maior do que racks refrigerados a ar. A empresa também firmou parceria com a Vertiv para um arquitetura de referência que pode lidar com mais de 130 quilowatts por rack, tornando viáveis implantações densas de GPU.
As startups também estão inovando. A Corintis, uma empresa suíça que incorpora microcanais diretamente em substratos de chips, levantou recentemente $ 24 milhões em financiamento e já conta com a Microsoft entre seus clientes. A própria equipe de pesquisa da Microsoft demonstrou canais microfluídicos gravados na embalagem do chip, reduzindo as temperaturas máximas da GPU em até 65% e triplicando a eficiência em comparação com placas frias tradicionais. Essas tecnologias permitem manter as GPUs funcionando a todo vapor sem danificar o data center.
Água como Variável Estratégica
O resfriamento líquido introduz outra variável: o consumo de água. Sistemas evaporativos e de água gelada podem exigir volumes enormes quando dimensionados para campi com centenas de megawatts. Em Phoenix, clusters de data centers podem exigir centenas de milhões de galões de água por dia, levantando preocupações em regiões afetadas pela seca.
Isso estimulou o desenvolvimento de sistemas de resfriamento sem água e de circuito fechado. IEEE Spectrum documentou estratégias como banhos de imersão dielétricos selados, resfriadores a seco e resfriadores sem água que reduzem o consumo de água potável a quase zero. Enquanto isso, alguns operadores estão experimentando a reutilização do calor residual. Projetos como Aquasar e iDataCool mostraram como circuitos de resfriamento de água quente podem alimentar sistemas de aquecimento de edifícios ou resfriadores de absorção, reciclando grande parte da energia que, de outra forma, seria perdida.
O dilema geralmente é entre água e eletricidade: sistemas de circuito fechado ou secos consomem mais energia, enquanto os projetos evaporativos economizam energia, mas consomem muita água. Em regiões com escassez hídrica, as políticas estão cada vez mais favorecendo a conservação de água, mesmo que isso signifique maior consumo de energia.
Infraestrutura e a Rede
Mesmo com soluções de energia e refrigeração implementadas, o gargalo final é a infraestrutura. As decisões de localização agora determinam vencedores e perdedores na corrida da IA.
US$ 80 bilhões da Microsoft Campus Fairwater em Wisconsin ilustra como a localização estratégica se tornou. O local abrange 315 hectares, abriga centenas de milhares de GPUs e foi escolhido por seu acesso a subestações, linhas de fibra óptica e águas subterrâneas. O projeto também enfatiza o resfriamento em circuito fechado para minimizar o impacto da água.
Para suportar sua crescente carga, a Microsoft assinou um acordo histórico com a Brookfield para adicionar 10.5 gigawatts de capacidade renovável até 2030. Ao mesmo tempo, apoiou projetos mais experimentais, como um usina de fusão nuclear em construção pela Helion Energy, programada para alimentar centros de dados até 2028, e uma Acordo de 20 anos para reiniciar a usina nuclear de Three Mile Island na Pensilvânia.
A Amazon e a Google estão a tomar medidas semelhantes, garantindo terrenos próximos de centrais nucleares e desenvolvendo os seus próprios portfólios de energia limpa. Na Irlanda, onde os centros de dados já consomem mais energia do que todas as famílias juntas, os reguladores congelaram novas aprovações até pelo menos 2028, ressaltando como a política e as autorizações podem prejudicar até mesmo os projetos mais bem financiados.
Operação mais inteligente: IA gerenciando IA
Curiosamente, a própria IA está sendo usada para gerenciar a carga de infraestrutura. Aprendizagem de reforço foi implantado em data centers de produção para otimizar sistemas de resfriamento, produzindo 14 a 21 por cento de economia de energia sem comprometer a segurança. Gêmeos digitais e modelagem preditiva também estão sendo usados para antecipar pontos de alta tensão, pré-resfriar equipamentos e transferir cargas de trabalho para horários mais frios ou períodos de excesso de oferta de energia renovável.
O Google já demonstrou como o aprendizado de máquina pode reduzir as necessidades de resfriamento do data center em 40 por cento, e outras operadoras estão adotando sistemas semelhantes. À medida que os custos de energia e refrigeração aumentam, essas economias operacionais estão se tornando uma vantagem competitiva essencial.
A Perspectiva Estratégica
A trajetória é clara. A demanda por IA deve dobrar o uso global de eletricidade em data centers até 2030, com as cargas de trabalho de IA respondendo sozinhas por uma parcela de um dígito médio do consumo total de energia global até 2050. Enquanto a NVIDIA e outros fabricantes de chips continuam a impulsionar o desempenho do silício, a fronteira prática da IA será definida pela rapidez com que as concessionárias podem construir uma nova infraestrutura de geração, transmissão e resfriamento.
Para as empresas que desenvolvem produtos de IA, isso significa que os roteiros estão cada vez mais vinculados à capacidade instalada. Para os investidores, as empresas mais valiosas podem ser concessionárias de serviços públicos, desenvolvedores de transmissão e startups de refrigeração, em vez de apenas fornecedores de GPU. E para os formuladores de políticas, o debate sobre IA está mudando de questões de ética e governança de dados para questões de megawatts, água e modernização da rede.
O futuro da IA não será decidido apenas em laboratórios de pesquisa e fábricas de chips, mas também em subestações, circuitos de resfriamento e usinas de energia. A física da escala — não apenas a matemática dos algoritmos — é o que determinará a velocidade e o escopo da inteligência artificial na próxima década.










