Parcerias
OpenAI Contrata Cerebras por $10 Bilhões em Computação de Baixa Latência

OpenAI anunciou um acordo de vários anos com a startup de chips Cerebras Systems que entregará 750 megawatts de computação de AI dedicada ao criador do ChatGPT, no que ambas as empresas descrevem como a maior implantação de inferência de alta velocidade já tentada.
O acordo, avaliado em mais de $10 bilhões, de acordo com fontes familiarizadas com os termos, marca a aposta de infraestrutura mais significativa da OpenAI fora de sua relação primária com a Microsoft. A Cerebras construirá e hospedará os sistemas em fases até 2028, com a primeira capacidade entrando em operação este ano.
A parceria visa um problema específico: velocidade. Embora a OpenAI tenha escalado o ChatGPT para 800 milhões de usuários semanais, a empresa enfrenta restrições de computação que retardam os tempos de resposta — particularmente para cargas de trabalho exigentes, como geração de código, tarefas agênticas e interação de voz em tempo real.
“A Cerebras adiciona uma solução de inferência de baixa latência dedicada à nossa plataforma”, disse Sachin Katti, que lidera a estratégia de computação da OpenAI. “Isso significa respostas mais rápidas, interações mais naturais e uma base mais sólida para dimensionar a IA em tempo real para muitas mais pessoas.”
Por Que o Silício de Escala de Placa Importa
A proposta da Cerebras gira em torno de seus processadores de escala de placa — chips do tamanho de pratos de jantar que eliminam os atrasos de comunicação inerentes a sistemas costurados a partir de muitos GPUs menores. A empresa afirma que sua arquitetura entrega velocidades de inferência até 15 vezes mais rápidas do que as alternativas baseadas em GPU, com modelos como GPT-OSS-120B executando a aproximadamente 3.000 tokens por segundo.
Para a OpenAI, essa velocidade se traduz diretamente na experiência do usuário. Quando a IA responde em tempo real — sem a latência que torna as conversas artificiais — os usuários se envolvem mais profundamente e realizam mais. A empresa testou o silício da Cerebras com seus modelos de peso aberto antes do Dia de Ação de Graças, e as conversas técnicas entre as equipes rapidamente escalaram para um termo assinado, de acordo com o CEO da Cerebras, Andrew Feldman.
“Assim como a banda larga transformou a internet, a inferência em tempo real transformará a IA”, disse Feldman. “Isso permite maneiras completamente novas de construir e interagir com modelos de IA.”
A comparação não é exagero. A internet de discagem inicial suportava e-mail e navegação básica; a banda larga permitiu streaming de vídeo, chamadas de voz e, eventualmente, a economia de aplicativos de smartphone. A OpenAI parece estar apostando que a inferência suficientemente rápida desbloqueará aplicativos que a latência atual torna impraticáveis — particularmente para agentes de IA que devem encadear múltiplas operações sem que a paciência humana se esgote.
A Corrida Armamentista de Infraestrutura se Intensifica
O acordo da Cerebras vem quando as valuações de infraestrutura de IA explodiram, com a Databricks recentemente levantando $134 bilhões e a Cerebras mesma supostamente em negociações para financiamento fresco a uma valuação de $22 bilhões. As demandas de computação dos modelos de IA de fronteira não mostram sinais de estabilização, e as empresas estão correndo para garantir capacidade antes que os concorrentes o façam.
Para a Cerebras, a parceria com a OpenAI resolve um problema de concentração de negócios. Os Emirados Árabes Unidos’ G42 representaram 87% da receita da Cerebras no primeiro semestre de 2024 — uma concentração de cliente que deixou os investidores nervosos. Adicionar a OpenAI como um cliente importante antes de um possível IPO desrisca significativamente o negócio.
Para a OpenAI, o acordo diversifica sua infraestrutura de IA além da nuvem Azure da Microsoft. Embora a Microsoft permaneça como o principal provedor de computação da OpenAI, a parceria com a Cerebras fornece à OpenAI capacidade de baixa latência dedicada otimizada especificamente para inferência — uma carga de trabalho diferente das execuções de treinamento que a infraestrutura da Microsoft lida.
O timing também importa. A OpenAI recentemente lançou GPT-5.2 em meio à intensificação da competição com o Gemini do Google. À medida que os modelos se tornam mais capazes, as empresas que os implantam estão descobrindo que a inteligência bruta não é suficiente — os usuários também esperam respostas quase instantâneas. Uma IA brilhante que leva dez segundos para responder parece quebrada; a mesma IA respondendo em menos de um segundo parece mágica.
Sam Altman, CEO da OpenAI, já é investidor da Cerebras, e a OpenAI uma vez considerou adquirir a empresa inteira. Este acordo sugere que a relação está evoluindo para algo mais estratégico: uma parceria em que os destinos de ambas as empresas se tornam interligados na corrida para tornar a IA verdadeiramente conversacional.












