Connect with us

O Cálice Sagrado do Poder Computacional em IA

Líderes de pensamento

O Cálice Sagrado do Poder Computacional em IA

mm

Apesar do progresso incrível, as capacidades da inteligência artificial ainda são limitadas quando comparadas às expectativas do mundo real. Construímos modelos complexos, executamos redes neurais e testamos algoritmos, mas o progresso às vezes estagna nos lugares onde menos esperamos.

O problema muitas vezes não está nos algoritmos ou nos dados, mas no poder computacional, os recursos que permitem que os modelos aprendam e operem na escala necessária. Então, o que está por trás dessa barreira? Vamos examinar o recurso crítico sem o qual mesmo os projetos de IA mais promissores não podem sair do laboratório.

A deficiência de cálculo e suas consequências

Para entender esse tópico, vamos começar com a história das comunicações móveis. Quando as redes 3G e, posteriormente, 4G apareceram, a internet já era quase global. E quando a 5G foi introduzida, muitas pessoas fizeram uma pergunta perfeitamente razoável: “A internet será mais rápida – mas e daí?”

Na realidade, o aumento da velocidade da internet não se resume à conveniência do usuário. Isso transforma todo o cenário tecnológico. Casos de uso surgem que eram anteriormente impossíveis. A 5G se mostrou muito mais rápida do que a 4G, e esse salto não foi gradual, como o salto de 1G para 2G, mas exponencial. Como resultado, novos aplicativos, dispositivos e classes de tecnologia podem aparecer.

Câmeras de trânsito, sistemas de análise de trânsito em tempo real e mecanismos de regulação de trânsito automatizados – tudo isso se torna possível graças a novas tecnologias de comunicação. A polícia ganha novas maneiras de trocar dados, e no espaço, telescópios e satélites podem transmitir vastas quantidades de informações para a Terra. Um salto qualitativo em uma tecnologia fundamental impulsiona o desenvolvimento de todo o ecossistema.

O mesmo princípio se aplica ao poder computacional. Imagine a capacidade computacional total da humanidade em unidades hipotéticas. Hoje, podemos ter, digamos, dez unidades. Com elas, podemos gerar imagens e vídeos, escrever textos, criar materiais de marketing… Isso já é substancial, mas a gama de aplicações é limitada principalmente.

Agora imagine que tivéssemos não dez, mas mil unidades. De repente, tecnologias que eram anteriormente muito caras se tornam viáveis, e startups que foram abandonadas devido a altos custos computacionais começam a fazer sentido econômico.

Pegue, por exemplo, os robôs-táxi. Hoje, eles dependem principalmente de computadores locais relativamente fracos instalados no veículo. No entanto, se o feed de vídeo fosse transmitido para a nuvem com recursos computacionais enormes, os dados poderiam ser processados e retornados em tempo real. E isso é crítico: um carro se movendo a 100 km/h deve tomar decisões em frações de segundo – ir reto, virar, frear ou não frear.

É quando uma indústria de robôs-táxi totalmente funcional se torna possível, não apenas soluções isoladas como as que vemos hoje. Qualquer computador local instalado em um carro é inerentemente limitado de uma maneira que um sistema conectado não é. Quanto mais rápido podemos escalá-lo, mais rápido o mundo ao nosso redor mudará.

Acesso a chips e o “bilhete de ouro” em IA

No contexto do poder computacional, surge a pergunta: o acesso a chips modernos está se tornando o “bilhete de ouro” para entrar no mercado de IA? Os grandes jogadores que assinam contratos com fabricantes de chips ou os produzem eles mesmos estão criando uma lacuna entre as grandes empresas e todos os demais?

Uma lacuna surge apenas em um caso: se um modelo de negócios se concentrar exclusivamente em vender chips para grandes clientes. Na prática, fabricantes como a NVIDIA visam fornecer soluções de nuvem para todos. Seus chips otimizados estão disponíveis na nuvem tanto para a OpenAI quanto para desenvolvedores independentes.

Até alianças estratégicas entre empresas como Google, Anthropic, Microsoft, OpenAI, Amazon e NVIDIA são principalmente parcerias para utilização compartilhada de recursos, e não tentativas de fechar o mercado. Esse modelo permite a alocação eficiente de poder computacional, acelerando assim o desenvolvimento tecnológico.

Se traçarmos a cadeia de uso de recursos computacionais, ela começa com o usuário final. Por exemplo, quando você usa o WhatsApp para chamadas de vídeo e mensagens, a empresa deve garantir que o serviço funcione: armazenando e processando dados, executando modelos para limpeza de vídeo, adicionando efeitos e melhorando a qualidade da imagem.

Manter servidores proprietários é caro, eles se tornam obsoletos e exigem manutenção constante. É por isso que soluções de nuvem, “a nuvem”, surgiram. O mercado é dominado por três jogadores: Google Cloud, AWS e Microsoft Azure. Outras empresas não podem competir nesse nível: a escala da infraestrutura é muito grande.

Os serviços de nuvem são grandes centros de dados com resfriamento, fornecimento de energia e manutenção 24 horas por dia. Eles abrigam servidores e chips especializados de fabricantes como NVIDIA, AMD e outros, permitindo processos computacionais em larga escala.

Aqui chegamos à pergunta-chave que discuti em minha coluna anterior sobre centros de dados e quero continuar aqui: qual é o principal gargalo nesse sistema? É a escassez de eletricidade ou a dificuldade de resfriar centros de dados em regiões onde o clima torna isso especialmente desafiador? Na realidade, o segredo está nos chips em si…

O cálice sagrado

Por que a NVIDIA hoje é valorizada em cerca de 5 trilhões de dólares e é contada entre as empresas de capital aberto mais bem-sucedidas do mundo? O motivo é simples: a NVIDIA produz os chips nos quais os modelos de IA são treinados e executados.

Cada um desses chips consome enormes quantidades de eletricidade ao treinar grandes modelos ou processar volumes de dados cada vez maiores. Mas como essa energia é usada de forma eficiente? É aqui que entram os chips especializados; eles lidam com tarefas específicas muito mais eficientemente do que os GPUs de propósito geral.

Os modelos de IA diferem. A OpenAI, por exemplo, tem uma família de modelos, a Anthropic outra. Os conceitos podem ser semelhantes, mas as estruturas matemáticas e os processos computacionais são diferentes. Um chip de propósito geral, ao treinar modelos da OpenAI (como o ChatGPT) versus modelos da Anthropic (como o Claude), age como uma “ferramenta de um tamanho só”, consumindo, digamos, 100.000 horas de computação para um modelo e 150.000 para outro. A eficiência varia significativamente e raramente é ótima.

As empresas resolvem esse problema produzindo chips especializados. Por exemplo, um chip pode ser otimizado para a arquitetura do ChatGPT e treinar em, digamos, 20 minutos, enquanto outro é personalizado para a arquitetura da Anthropic e também completa o treinamento em 20 minutos. O consumo de energia e o tempo de treinamento são reduzidos várias vezes em comparação com um chip de propósito geral.

Quando esses chips são vendidos para grandes empresas, como Google, Amazon, Microsoft ou Azure, eles são oferecidos como produtos autônomos. Os usuários podem escolher, por exemplo, um chip otimizado para um modelo YOLO ou um chip mais simples e barato para uma arquitetura Xen. Dessa forma, as empresas ganham acesso a recursos computacionais precisamente adaptados às suas tarefas, em vez de comprar GPUs de propósito geral. Se um usuário tiver dez funções diferentes, pode usar dez chips especializados diferentes.

A tendência é clara: chips especializados estão gradualmente substituindo os de propósito geral. Muitas startups agora trabalham com ASICs (Circuitos Integrados Específicos de Aplicação), chips projetados para tarefas computacionais específicas. Os primeiros ASICs apareceram para mineração de Bitcoin: inicialmente, a criptomoeda era minerada em GPUs da NVIDIA, então chips foram criados exclusivamente para o Bitcoin e não eram capazes de realizar outras tarefas.

Eu vejo isso na prática: a mesma configuração de hardware pode produzir resultados completamente diferentes dependendo da tarefa. Na minha startup Introspector, estudamos esses processos em projetos reais, e como consultor estratégico da Keymakr, observo como os clientes ganham eficiência com chips especializados, permitindo que os modelos sejam executados mais rapidamente. Projetos que anteriormente estagnaram durante o treinamento ou inferência atingem resultados estáveis com essa abordagem.

No entanto, a especialização estreita traz riscos. Um chip otimizado para a arquitetura da Anthropic não funcionará para treinar modelos da OpenAI, e vice-versa. Cada nova arquitetura exige uma nova geração de hardware, criando um risco de “depreciação” em grande escala. Se a Anthropic lançar uma nova arquitetura amanhã, todos os chips da geração anterior se tornam ineficientes ou inúteis. Produzir novos chips custa bilhões de dólares e pode levar anos.

Isso cria um dilema: devemos fazer chips especializados que funcionem perfeitamente em um cenário estreito ou continuar produzindo chips de propósito geral que resolvem todas as tarefas de forma moderadamente boa, mas não exigem substituição completa quando as arquiteturas mudam?

A eficiência, nesse contexto, é medida por três parâmetros principais: tempo de execução, consumo de eletricidade e geração de calor. Esses métricos estão diretamente relacionados: quanto mais tempo um sistema opera, mais energia consome e mais calor produz. Reduzir um parâmetro melhora automaticamente os outros dois.

Aqui está o “cálice sagrado” do desempenho de IA: se pelo menos um dos métricos de eficiência fundamentais puder ser otimizado, os outros métricos quase automaticamente melhoram também.

Processo sustentável

Com o uso crescente de chips especializados, a questão do risco de superprodução se tornou premente. Atualmente, o excedente de equipamentos já é significativo, e as empresas estão abordando essa questão de várias maneiras sustentáveis, incluindo a reutilização de recursos existentes.

Reciclar equipamentos se tornou um elemento-chave do desenvolvimento sustentável em indústrias de alta tecnologia. Os chips contêm quantidades substanciais de metais preciosos e básicos, ouro, cobre, alumínio, paládio e materiais raros, bem como materiais usados em microchips e transistores. Uma vez que o equipamento se torna obsoleto, esses recursos valiosos podem ser devolvidos à produção, reduzindo o custo de novos componentes, enquanto simultaneamente diminui a pegada ambiental da indústria.

Algumas fábricas especializadas e empresas se concentram na reciclagem e extração de metais preciosos de componentes obsoletos. Por exemplo, algumas instalações usam processos hidrometalúrgicos e métodos químicos avançados para extrair ouro e cobre com alto grau de pureza, permitindo que esses materiais sejam reutilizados em novos chips.

Além disso, as empresas estão implementando modelos de circuito fechado, onde o equipamento antigo é atualizado ou integrado a novas soluções, reduzindo assim a necessidade de extração de recursos primários. Essas abordagens não apenas ajudam a minimizar os resíduos, mas também reduzem a pegada de carbono da produção, pois a mineração e o processamento de metais tradicionais exigem energia significativa.

A gestão sustentável do ciclo de vida dos chips e equipamentos pode se tornar um padrão da indústria, onde o progresso tecnológico se alinha com a responsabilidade ambiental.

Michael Abramov é o fundador e CEO da Introspector, trazendo mais de 15+ anos de experiência em engenharia de software e sistemas de visão computacional de IA para a construção de ferramentas de marcação de nível empresarial.

Michael começou sua carreira como engenheiro de software e gerente de P&D, construindo sistemas de dados escaláveis e gerenciando equipes de engenharia multifuncionais. Até 2025, ele atuou como CEO da Keymakr, uma empresa de serviço de marcação de dados, onde ele pioneirou fluxos de trabalho humanos no loop, sistemas de QA avançados e ferramentas personalizadas para atender às necessidades de dados de visão computacional e autonomia em larga escala.

Ele possui um B.Sc. em Ciência da Computação e uma formação em engenharia e artes criativas, trazendo uma lente multidisciplinar para resolver problemas difíceis. Michael vive na interseção da inovação tecnológica, liderança de produto estratégica e impacto no mundo real, impulsionando a próxima fronteira de sistemas autônomos e automação inteligente.