Connect with us

Líderes de pensamento

O Crescente Apetite de Energia da IA: Os Data Centers Estão Preparados para Manter o Ritmo?

mm

À medida que a inteligência artificial (IA) avança a todo vapor, suas demandas de energia estão estressando os data centers ao ponto de ruptura. As tecnologias de IA de próxima geração, como generative AI (genAI), não estão apenas transformando indústrias – seu consumo de energia está afetando quase todos os componentes dos servidores de dados, desde CPUs e memória até aceleradores e rede.

As aplicações de genAI, incluindo o Copilot da Microsoft e o ChatGPT da OpenAI, exigem mais energia do que nunca. Até 2027, o treinamento e a manutenção desses sistemas de IA sozinhos poderiam consumir quantidade suficiente de eletricidade para alimentar um pequeno país por um ano inteiro. E a tendência não está desacelerando: ao longo da última década, as demandas de energia para componentes como CPUs, memória e rede devem crescer 160% até 2030, de acordo com um relatório do Goldman Sachs.

O uso de grandes modelos de linguagem também consome energia. Por exemplo, uma consulta ao ChatGPT consome cerca de dez vezes mais energia do que uma pesquisa tradicional do Google. Dada a necessidade massive de energia da IA, será que os avanços rápidos da indústria podem ser gerenciados de forma sustentável, ou contribuirão ainda mais para o consumo de energia global? A pesquisa recente da McKinsey mostra que cerca de 70% da demanda em ascensão no mercado de data centers está voltada para instalações equipadas para lidar com cargas de trabalho de IA avançadas. Essa mudança está fundamentalmente alterando a forma como os data centers são construídos e operados, à medida que se adaptam aos requisitos únicos dessas tarefas de genAI de alta potência.

“Os data centers tradicionais muitas vezes operam com equipamentos envelhecidos e intensivos em energia e capacidades fixas que lutam para se adaptar a cargas de trabalho flutuantes, levando a um desperdício de energia significativo,” Mark Rydon, Diretor de Estratégia e co-fundador da plataforma de computação em nuvem distribuída Aethir, me disse. “As operações centralizadas muitas vezes criam um desequilíbrio entre a disponibilidade de recursos e as necessidades de consumo, levando a indústria a um ponto crítico em que os avanços podem arriscar comprometer os objetivos ambientais à medida que as demandas impulsionadas pela IA crescem.”

Os líderes da indústria agora estão abordando o desafio de frente, investindo em designs mais verdes e arquiteturas de energia eficiente para data centers. Os esforços variam desde a adoção de fontes de energia renovável até a criação de sistemas de refrigeração mais eficientes que possam compensar as vastas quantidades de calor geradas pelas cargas de trabalho de genAI.

Revolucionando os Data Centers para um Futuro Mais Verde

A Lenovo recentemente introduziu o ThinkSystem N1380 Neptune, um grande avanço na tecnologia de refrigeração líquida para data centers. A empresa afirma que a inovação já está permitindo que as organizações implantem computação de alta potência para cargas de trabalho de genAI com um uso de energia significativamente menor – até 40% menos energia nos data centers. O N1380 Neptune aproveita o hardware mais recente da NVIDIA, incluindo os GPUs Blackwell e GB200, permitindo o manejo de modelos de IA de trilhões de parâmetros em uma configuração compacta. A Lenovo disse que visa abrir o caminho para data centers que possam operar racks de servidores de 100KW+ sem a necessidade de ar condicionado dedicado.

“Identificamos uma necessidade significativa de nossos consumidores atuais: os data centers estão consumindo mais energia ao lidar com cargas de trabalho de IA devido a arquiteturas de refrigeração obsoletas e estruturas tradicionais,” Robert Daigle, Diretor Global de IA da Lenovo, me disse. “Para entender melhor isso, colaboramos com um cliente de computação de alto desempenho (HPC) para analisar seu consumo de energia, o que nos levou à conclusão de que poderíamos reduzir o uso de energia em 40%.” Ele acrescentou que a empresa levou em consideração fatores como a potência do ventilador e o consumo de energia das unidades de refrigeração, comparando-os com sistemas padrão disponíveis por meio do serviço de avaliação de data center da Lenovo, para desenvolver a nova arquitetura de data center em parceria com a Nvidia.

A empresa de consultoria em tecnologia da informação com sede no Reino Unido, AVEVA, disse que está utilizando análise preditiva para identificar problemas com compressores de data centers, motores, equipamentos de HVAC, manipuladores de ar e mais.

“Descobrimos que é o pré-treinamento de IA generativa que consome uma quantidade massiva de energia,” Jim Chappell, Chefe de IA e Análise Avançada da AVEVA, me disse. “Por meio de nossos sistemas de IA impulsionados por previsão, visamos encontrar problemas bem antes de qualquer sistema SCADA ou de controle, permitindo que os operadores de data centers resolvam problemas de equipamento antes que se tornem questões importantes. Além disso, temos um Assistente de Visão de IA que se integra nativamente a nossos sistemas de controle para ajudar a encontrar outros tipos de anomalias, incluindo pontos quentes de temperatura quando usado com uma câmera de imagem térmica.”

Enquanto isso, a computação descentralizada para treinamento e desenvolvimento de IA por meio de GPUs na nuvem está surgindo como uma alternativa. O Rydon da Aethir explicou que, distribuindo tarefas computacionais por uma rede mais ampla e adaptável, o uso de energia pode ser otimizado, alinhando a demanda de recursos com a disponibilidade – levando a reduções substanciais no desperdício desde o início.

“Em vez de depender de grandes data centers centralizados, nossa infraestrutura ‘Edge’ dispersa tarefas computacionais para nós mais próximos da fonte de dados, o que reduz drasticamente a carga de energia para transferência de dados e diminui a latência,” disse Rydon. “A rede Aethir Edge minimiza a necessidade de sistemas de refrigeração de alta potência constantes, pois as cargas de trabalho são distribuídas por vários ambientes em vez de serem concentradas em uma única localização, ajudando a evitar sistemas de refrigeração intensivos em energia típicos de data centers centrais.”

Da mesma forma, empresas como Amazon e Google estão experimentando fontes de energia renovável para gerenciar as necessidades de energia crescentes em seus data centers. A Microsoft, por exemplo, está investindo pesadamente em fontes de energia renovável e tecnologias que aumentam a eficiência para reduzir o consumo de energia de seus data centers. O Google também deu passos para mudar para energia livre de carbono e explorar sistemas de refrigeração que minimizam o uso de energia nos data centers. “A energia nuclear é provavelmente o caminho mais rápido para data centers livres de carbono. Principais provedores de data centers, como Microsoft, Amazon e Google, agora estão investindo pesadamente nesse tipo de geração de energia para o futuro. Com reatores modulares pequenos (SMRs), a flexibilidade e o tempo de produção tornam essa uma opção ainda mais viável para alcançar a neutralidade de carbono,” acrescentou o Chappell da AVEVA.

A IA e a Sustentabilidade dos Data Centers Podem Coexistir?

Ugur Tigli, CTO da plataforma de infraestrutura de IA MinIO, diz que, embora esperemos por um futuro em que a IA possa avançar sem um aumento significativo no consumo de energia, isso simplesmente não é realista no curto prazo. “Os impactos de longo prazo são mais difíceis de prever,” ele me disse, “mas veremos uma mudança na força de trabalho, e a IA ajudará a melhorar o consumo de energia em toda a indústria.” Tigli acredita que, à medida que a eficiência energética se torna uma prioridade de mercado, veremos o crescimento da computação ao lado de declínios no uso de energia em outros setores, especialmente à medida que se tornam mais eficientes.

Ele também destacou que há um interesse crescente entre os consumidores por soluções de IA mais verdes. “Imagine um aplicativo de IA que executa com 90% de eficiência, mas usa apenas metade da energia – esse é o tipo de inovação que realmente pode decolar,” ele acrescentou. Está claro que o futuro da IA não é apenas sobre inovação – também é sobre a sustentabilidade dos data centers. Seja por meio do desenvolvimento de hardware mais eficiente ou de maneiras mais inteligentes de usar recursos, como gerenciamos o consumo de energia da IA influenciará grandemente o design e a operação dos data centers.

Rydon enfatizou a importância de iniciativas setoriais que se concentram em designs de data centers sustentáveis, cargas de trabalho de IA eficientes em energia e compartilhamento de recursos abertos. “Essas são etapas cruciais em direção a operações mais verdes,” ele disse. “As empresas que usam IA devem se associar a empresas de tecnologia para criar soluções que reduzam o impacto ambiental. Trabalhando juntos, podemos direcionar a IA para um futuro mais sustentável.”

Victor Dey é um editor e escritor de tecnologia que cobre A.I., crypto, ciência de dados, metaverso e cibersegurança dentro do âmbito empresarial. Ele tem meio década de experiência em mídia e IA trabalhando em veículos de comunicação bem conhecidos, como VentureBeat, Metaverse Post, Observer e outros. Victor mentorou fundadores de startups em programas de aceleração em universidades de ponta, incluindo a Universidade de Oxford e a Universidade do Sul da Califórnia, e possui um mestrado em ciência de dados e análise.