Líderes de pensamento
O problema de um trilhão de dólares da IA
Ao entrarmos em 2025, o setor de inteligência artificial encontra-se em um ponto de inflexão crucial. Embora o setor continue a atrair níveis sem precedentes de investimento e atenção — especialmente no cenário da IA generativa — diversas dinâmicas de mercado subjacentes sugerem que estamos caminhando para uma grande mudança no cenário da IA no próximo ano.
Com base na minha experiência liderando uma startup de IA e observando a rápida evolução do setor, acredito que este ano trará muitas mudanças fundamentais: de grandes modelos de conceito (LCMs) que devem surgir como concorrentes sérios para grandes modelos de linguagem (LLMs), o surgimento de hardware de IA especializado, até as grandes empresas de tecnologia iniciando grandes construções de infraestrutura de IA que finalmente as colocarão em posição de superar startups como OpenAI e Anthropic — e, quem sabe, talvez até mesmo garantir seu monopólio de IA, afinal.
Desafio único das empresas de IA: nem software nem hardware
A questão fundamental está em como as empresas de IA operam em um meio termo nunca antes visto entre os negócios tradicionais de software e hardware. Ao contrário das empresas de software puro que investem principalmente em capital humano com despesas operacionais relativamente baixas, ou empresas de hardware que fazem investimentos de capital de longo prazo com caminhos claros para retornos, as empresas de IA enfrentam uma combinação única de desafios que tornam seus modelos de financiamento atuais precários.
Essas empresas exigem enormes investimentos iniciais de capital para clusters e infraestrutura de GPU, investindo de US$ 100 a US$ 200 milhões anualmente apenas em recursos computacionais. No entanto, ao contrário das empresas de hardware, elas não podem amortizar esses investimentos em períodos prolongados. Em vez disso, operam em ciclos comprimidos de dois anos entre rodadas de financiamento, precisando, a cada rodada, demonstrar crescimento exponencial e desempenho de ponta para justificar seu próximo aumento de avaliação.
Problema de diferenciação de LLMs
Somando-se a esse desafio estrutural está uma tendência preocupante: a rápida convergência de capacidades de modelos de linguagem grandes (LLM). Startups, como a unicórnio Mistral AI e outros, demonstraram que os modelos de código aberto podem atingir desempenho comparável às suas contrapartes de código fechado, mas a diferenciação técnica que anteriormente justificava avaliações altíssimas está se tornando cada vez mais difícil de manter.
Em outras palavras, embora cada novo LLM apresente um desempenho impressionante com base em benchmarks padrão, uma mudança verdadeiramente significativa na arquitetura do modelo subjacente não está ocorrendo.
As limitações atuais neste domínio decorrem de três áreas críticas: disponibilidade de dados, pois estamos ficando sem material de treinamento de alta qualidade (como confirmado por Elon Musk recentemente); métodos de curadoria, pois todos eles adotam abordagens semelhantes de feedback humano, pioneiras da OpenAI; e arquitetura computacional, pois dependem do mesmo conjunto limitado de hardware de GPU especializado.
O que está surgindo é um padrão em que os ganhos vêm cada vez mais da eficiência, em vez da escala. As empresas estão se concentrando em comprimir mais conhecimento em menos tokens e desenvolver artefatos de engenharia melhores, como sistemas de recuperação como os RAGs (geração aumentada de recuperação) de grafos. Essencialmente, estamos nos aproximando de um patamar natural em que investir mais recursos no problema gera retornos decrescentes.
Devido ao ritmo sem precedentes de inovação nos últimos dois anos, essa convergência de capacidades de LLM está acontecendo mais rápido do que qualquer um esperava, criando uma corrida contra o tempo para as empresas que levantaram fundos.
Com base nas últimas tendências de pesquisa, a próxima fronteira para abordar esta questão é o surgimento de grandes modelos conceituais (LCMs) como uma arquitetura nova e inovadora que compete com os LLMs em seu domínio principal, que é a compreensão da linguagem natural (PLN).
Tecnicamente falando, os LCMs terão várias vantagens, incluindo o potencial para melhor desempenho com menos iterações e a capacidade de atingir resultados semelhantes com equipes menores. Acredito que esses LCMs de próxima geração serão desenvolvidos e comercializados por equipes spin-off, os famosos mavericks 'ex-big tech' fundando novas startups para liderar essa revolução.
Descompasso no cronograma de monetização
A compressão dos ciclos de inovação criou outro problema crítico: o descompasso entre o tempo de lançamento no mercado e a monetização sustentável. Embora estejamos observando uma velocidade sem precedentes na verticalização de aplicações de IA – com agentes de IA de voz, por exemplo, passando do conceito a produtos geradores de receita em poucos meses – essa rápida comercialização mascara um problema mais profundo.
Considere isto: uma startup de IA avaliada em US$ 20 bilhões hoje provavelmente precisará gerar cerca de US$ 1 bilhão em receita anual dentro de 4-5 anos para justificar a abertura de capital a um múltiplo razoável. Isso requer não apenas excelência tecnológica, mas uma transformação dramática de todo o modelo de negócios, de focado em P&D para orientado a vendas, tudo isso mantendo o ritmo da inovação e gerenciando enormes custos de infraestrutura.
Nesse sentido, as novas startups focadas em LCM que surgirão em 2025 estarão em melhores posições para levantar financiamento, com avaliações iniciais mais baixas, tornando-as alvos de financiamento mais atraentes para os investidores.
Escassez de hardware e alternativas emergentes
Vamos analisar mais detalhadamente a infraestrutura. Hoje, cada novo cluster de GPU é adquirido antes mesmo de ser construído pelas grandes empresas, forçando as empresas menores a se comprometerem com contratos de longo prazo com provedores de nuvem ou correrem o risco de serem completamente excluídas do mercado.
Mas aqui está o que é realmente interessante: enquanto todos brigam por GPUs, houve uma mudança fascinante no cenário de hardware que ainda está sendo amplamente ignorada. A arquitetura atual de GPU, chamada GPGPU (General Purpose GPU), é incrivelmente ineficiente para o que a maioria das empresas realmente precisa em produção. É como usar um supercomputador para executar um aplicativo de calculadora.
É por isso que acredito que hardware especializado em IA será a próxima grande mudança em nosso setor. Empresas como Groq e Cerebras estão desenvolvendo hardware específico para inferência que é 4 a 5 vezes mais barato de operar do que GPUs tradicionais. Sim, há um custo inicial de engenharia mais alto para otimizar seus modelos para essas plataformas, mas para empresas que executam cargas de trabalho de inferência em larga escala, os ganhos de eficiência são claros.
Densidade de dados e o surgimento de modelos menores e mais inteligentes
Avançar para a próxima fronteira de inovação em IA provavelmente exigirá não apenas maior poder computacional — especialmente para modelos grandes como LCMs — mas também conjuntos de dados mais ricos e abrangentes.
Curiosamente, modelos menores e mais eficientes estão começando a desafiar os maiores ao capitalizar sobre o quão densamente eles são treinados em dados disponíveis. Por exemplo, modelos como o FeeFree da Microsoft ou o Gema2B do Google operam com muito menos parâmetros — geralmente em torno de 2 a 3 bilhões — mas atingem níveis de desempenho comparáveis a modelos muito maiores com 8 bilhões de parâmetros.
Esses modelos menores são cada vez mais competitivos por causa de sua alta densidade de dados, tornando-os robustos apesar de seu tamanho. Essa mudança em direção a modelos compactos, mas poderosos, alinha-se com as vantagens estratégicas que empresas como Microsoft e Google detêm: acesso a conjuntos de dados massivos e diversos por meio de plataformas como Bing e Google Search.
Essa dinâmica revela duas “guerras” críticas se desenrolando no desenvolvimento de IA: uma sobre poder computacional e outra sobre dados. Embora os recursos computacionais sejam essenciais para ultrapassar limites, a densidade de dados está se tornando igualmente — se não mais — crítica. Empresas com acesso a vastos conjuntos de dados estão posicionadas de forma única para treinar modelos menores com eficiência e robustez incomparáveis, solidificando seu domínio no cenário de IA em evolução.
Quem vencerá a guerra da IA?
Neste contexto, todos gostam de se perguntar quem no cenário atual da IA está melhor posicionado para sair vencedor. Aqui vai um pouco de alimento para reflexão.
Grandes empresas de tecnologia têm comprado antecipadamente clusters inteiros de GPU antes da construção, criando um ambiente de escassez para empresas menores. Pedido de mais de 100,000 GPUs da Oracle e movimentos semelhantes da Meta e da Microsoft exemplificam essa tendência.
Tendo investido centenas de bilhões em iniciativas de IA, essas empresas exigem milhares de engenheiros e pesquisadores especializados em IA. Isso cria uma demanda sem precedentes por talentos que só pode ser satisfeita por meio de aquisições estratégicas – provavelmente resultando em muitas startups sendo absorvidas nos próximos meses.
Embora 2025 seja gasto em P&D em larga escala e na construção de infraestrutura para esses atores, até 2026 eles estarão em posição de atacar como nunca antes, devido a recursos inigualáveis.
Isso não quer dizer que as empresas menores de IA estejam condenadas — longe disso. O setor continuará a inovar e a criar valor. Algumas inovações importantes no setor, como os LCMs, provavelmente serão lideradas por empresas menores e emergentes no próximo ano, juntamente com a Meta, Google/Alphabet e OpenAI com a Anthropic, todas as quais estão trabalhando em projetos interessantes no momento.
No entanto, é provável que vejamos uma reestruturação fundamental na forma como as empresas de IA são financiadas e avaliadas. À medida que o capital de risco se torna mais criterioso, as empresas precisarão demonstrar caminhos claros para uma economia unitária sustentável – um desafio particular para empresas de código aberto que competem com alternativas proprietárias com bons recursos.
Especificamente para empresas de IA de código aberto, o caminho a seguir pode exigir foco em aplicações verticais específicas, onde suas capacidades de transparência e personalização oferecem vantagens claras sobre soluções proprietárias.












