Entre em contato

O crescente apetite da IA ​​por poder: os data centers estão prontos para acompanhar?

Líderes de pensamento

O crescente apetite da IA ​​por poder: os data centers estão prontos para acompanhar?

mm

À medida que a inteligência artificial (IA) avança, suas demandas de energia estão levando os data centers ao ponto de ruptura. Tecnologias de IA de última geração, como IA generativa (genAI) não está apenas transformando indústrias — seu consumo de energia está afetando quase todos os componentes do servidor de dados — de CPUs e memória a aceleradores e redes.

As aplicações GenAI, incluindo o Copilot da Microsoft e o ChatGPT da OpenAI, demandam mais energia do que nunca. Até 2027, o treinamento e a manutenção desses sistemas de IA, por si só, poderão consumir energia suficiente. eletricidade para abastecer um pequeno país por um ano inteiro. E a tendência não está diminuindo: na última década, as demandas de energia para componentes como CPUs, memória e rede devem crescer 160% até 2030, de acordo com uma Goldman Sachs relatar.

O uso de grandes modelos de linguagem também consome energia. Por exemplo, uma consulta ChatGPT consome cerca de dez vezes uma busca tradicional no Google. Considerando os enormes requisitos de energia da IA, os rápidos avanços do setor podem ser gerenciados de forma sustentável ou contribuirão ainda mais para o consumo global de energia? A recente pesquisa da McKinsey pesquisa mostra que cerca de 70% da crescente demanda no mercado de data center é voltada para instalações equipadas para lidar com cargas de trabalho avançadas de IA. Essa mudança está mudando fundamentalmente como os data centers são construídos e executados, à medida que se adaptam aos requisitos exclusivos dessas tarefas genAI de alta potência.

“Os data centers tradicionais geralmente operam com equipamentos antigos e com alto consumo de energia, além de capacidades fixas que lutam para se adaptar a cargas de trabalho flutuantes, o que leva a um desperdício significativo de energia”, Mark Rydon, diretor de estratégia e cofundador da plataforma de computação em nuvem distribuída Aethir, me disse. “Operações centralizadas frequentemente criam um desequilíbrio entre a disponibilidade de recursos e as necessidades de consumo, levando a indústria a um momento crítico onde os avanços podem arriscar minar as metas ambientais à medida que as demandas impulsionadas pela IA aumentam.”

Os líderes do setor agora estão encarando o desafio de frente, investindo em designs mais ecológicos e arquiteturas com eficiência energética para data centers. Os esforços variam da adoção de fontes de energia renováveis ​​à criação de sistemas de resfriamento mais eficientes que podem compensar as vastas quantidades de calor geradas por cargas de trabalho genAI.

Revolucionando Data Centers para um Futuro Mais Verde

A Lenovo introduziu recentemente o Think System N1380 Netuno, um salto à frente na tecnologia de resfriamento líquido para data centers. A empresa afirma que a inovação já está permitindo que as organizações implantem computação de alta potência para cargas de trabalho genAI com uso de energia significativamente menor — até 40% menos energia em data centers. O N1380 Neptune aproveita o hardware mais recente da NVIDIA, incluindo as GPUs Blackwell e GB200, permitindo o manuseio de modelos de IA de trilhões de parâmetros em uma configuração compacta. A Lenovo disse que pretende abrir caminho para data centers que podem operar racks de servidores de mais de 100 kW sem a necessidade de ar condicionado dedicado.

“Identificamos uma exigência significativa de nossos consumidores atuais: os data centers estão consumindo mais energia ao lidar com cargas de trabalho de IA devido a arquiteturas de resfriamento desatualizadas e estruturas estruturais tradicionais”, Robert Daigle, Diretor Global de IA na Lenovo, me disse. “Para entender isso melhor, colaboramos com um cliente de computação de alto desempenho (HPC) para analisar seu consumo de energia, o que nos levou à conclusão de que poderíamos reduzir o uso de energia em 40%.” Ele acrescentou que a empresa levou em consideração fatores como a potência do ventilador e o consumo de energia das unidades de resfriamento, comparando-os com sistemas padrão disponíveis por meio do serviço de avaliação de data center da Lenovo, para desenvolver a nova arquitetura de data center em parceria com a Nvidia.

Empresa de consultoria em tecnologia da informação sediada no Reino Unido AVEVA, disse que está utilizando análise preditiva para identificar problemas com compressores de data center, motores, equipamentos HVAC, manipuladores de ar e muito mais.

“Descobrimos que é o pré-treinamento da IA ​​generativa que consome muita energia”, Jim Chappell, chefe de IA e análise avançada da AVEVA, me disse. “Por meio de nossos sistemas preditivos orientados por IA, buscamos encontrar problemas bem antes de qualquer SCADA ou sistema de controle, permitindo que os operadores de data center consertem problemas de equipamento antes que se tornem grandes problemas. Além disso, temos um Vision AI Assistant que se integra nativamente com nossos sistemas de controle para ajudar a encontrar outros tipos de anomalias, incluindo pontos quentes de temperatura quando usado com uma câmera de imagem de calor.”

Enquanto isso, a computação descentralizada para treinamento e desenvolvimento de IA por meio de GPUs na nuvem está surgindo como uma alternativa. Aethir's rydon explicou que, ao distribuir tarefas computacionais por uma rede mais ampla e adaptável, o uso de energia pode ser otimizado, alinhando a demanda de recursos com a disponibilidade, levando a reduções substanciais no desperdício desde o início.

“Em vez de depender de grandes data centers centralizados, nossa infraestrutura 'Edge' dispersa tarefas computacionais para nós mais próximos da fonte de dados, o que reduz drasticamente a carga de energia para transferência de dados e diminui a latência”, disse Rydon. “A rede Aethir Edge minimiza a necessidade de resfriamento constante de alta potência, pois as cargas de trabalho são distribuídas em vários ambientes em vez de concentradas em um único local, ajudando a evitar sistemas de resfriamento com alto consumo de energia típicos de data centers centrais.”

Da mesma forma, as empresas, incluindo Amazon e Google estão experimentando fontes de energia renováveis ​​para gerenciar as crescentes necessidades de energia em seus data centers. A Microsoft, por exemplo, está investindo pesadamente em fontes de energia renováveis ​​e tecnologias de aumento de eficiência para reduzir o consumo de energia de seus data centers. O Google também tomou medidas para mudar para energia livre de carbono e explorar sistemas de resfriamento que minimizem o uso de energia em data centers. “A energia nuclear é provavelmente o caminho mais rápido para data centers livres de carbono. Grandes provedores de data centers como Microsoft, Amazon e Google estão agora investindo pesadamente neste tipo de geração de energia para o futuro. Com pequenos reatores modulares (SMRs), a flexibilidade e o tempo de produção tornam esta uma opção ainda mais viável para atingir Net Zero,” adicionado Chappell da AVEVA.

A IA e a sustentabilidade do data center podem coexistir?

Ugur Tigli, CTO da plataforma de infraestrutura de IA MinIO, diz que, embora esperemos um futuro em que a IA possa avançar sem um grande aumento no consumo de energia, isso não é realista no curto prazo. “Os impactos a longo prazo são mais difíceis de prever”, ele me disse, “mas veremos uma mudança na força de trabalho, e a IA ajudará a melhorar o consumo de energia em todos os níveis.” Tigli acredita que, à medida que a eficiência energética se tornar uma prioridade de mercado, veremos crescimento na computação juntamente com declínios no uso de energia em outros setores, especialmente à medida que eles se tornarem mais eficientes.

Ele também destacou que há um interesse crescente entre os consumidores por soluções de IA mais ecológicas. “Imagine uma aplicação de IA que funciona com 90% de eficiência, mas usa apenas metade da energia — esse é o tipo de inovação que pode realmente decolar”, Ele acrescentou. É evidente que o futuro da IA ​​não se resume apenas à inovação, mas também à sustentabilidade dos data centers. Seja por meio do desenvolvimento de hardware mais eficiente ou de maneiras mais inteligentes de usar recursos, a forma como gerenciamos o consumo de energia da IA ​​influenciará significativamente o projeto e a operação dos data centers.

rydon enfatizou a importância de iniciativas em todo o setor que se concentrem em projetos de data centers sustentáveis, cargas de trabalho de IA com eficiência energética e compartilhamento aberto de recursos. “Estes são passos cruciais para operações mais ecológicas”, , disse. “Empresas que usam IA devem fazer parcerias com empresas de tecnologia para criar soluções que reduzam o impacto ambiental. Ao trabalharmos juntos, podemos direcionar a IA para um futuro mais sustentável.”

Victor Dey é um editor e escritor de tecnologia que cobre IA, cripto, ciência de dados, metaverso e segurança cibernética dentro do reino empresarial. Ele ostenta meia década de experiência em mídia e IA trabalhando em veículos de mídia conhecidos como VentureBeat, Metaverse Post, Observer e outros. Victor foi mentor de fundadores de estudantes em programas de aceleração em universidades importantes, incluindo a University of Oxford e a University of Southern California, e possui mestrado em ciência de dados e análise.