Connect with us

2026 Previsão – Open Source Will Ride AI’s Wave Into Its Next Golden Age

Líderes de pensamento

2026 Previsão – Open Source Will Ride AI’s Wave Into Its Next Golden Age

mm
A widescreen, photorealistic digital landscape of a futuristic smart city where glowing data streams in various colors flow like highways between glass buildings and centralized glowing hubs.

A aquisição de US$ 11 bilhões da Confluent pela IBM anunciada no início de dezembro, é mais do que uma grande consolidação na infraestrutura de dados: é um reconhecimento público de que a Inteligência Artificial (AI) é fundamentalmente baseada em eventos. Em outras palavras, essa aquisição é uma prova de que as empresas precisam de dados confiáveis em movimento tanto quanto dados em repouso. À medida que as organizações correram para implantar agentes de AI em suas operações em 2025, o acordo destaca uma realização crítica: o contexto em tempo real é o ingrediente missing para fazer com que a AI agente funcione em escala empresarial.

A própria estruturação da IBM revela a mudança estratégica. Eles estão posicionando a entidade combinada como uma “plataforma de dados inteligente para agentes de AI” – infraestrutura que pode conectar, processar e governar dados em tempo real para que os agentes possam operar de forma transparente em ambientes híbridos. Isso não é sobre vender mais infraestrutura de streaming. É sobre reconhecer que os agentes de AI precisam de contexto contínuo e fresco para funcionar de forma confiável, e que os dados de streaming são a infraestrutura que torna isso possível.

A Paradoxo no Coração da AI Empresarial

A aquisição da IBM também destaca um paradoxo fascinante na paisagem da infraestrutura de dados. Nos últimos anos, alguns fornecedores de infraestrutura recuaram do open source, alterando licenças e se retirando para modelos proprietários em busca de uma monetização mais forte. No entanto, a adoção da AI está forçando os ecossistemas a voltar à abertura. Por quê? Os agentes precisam de pipelines interoperáveis, conectores e governança em muitos sistemas – não apenas em uma pilha fechada de um único fornecedor.

O surgimento de poderosos modelos de linguagem abertos (LLMs) empurrou todo o ecossistema de AI em direção à transparência e portabilidade. Modelos como Llama, Mistral e muitos outros dão às empresas alternativas mais baratas e melhores do que os modelos fechados. Isso cria tensão: os fornecedores de infraestrutura de dados estão fechando seus jardins justo quando as empresas de AI que consomem seus produtos estão abrindo os deles. A aquisição da Confluent pela IBM sinaliza o início de um reset, onde a força da AI força a infraestrutura a voltar à abertura.

Gerenciamento de Contexto: A Capacidade Empresarial que a AI Exige

Para entender por quê, precisamos falar sobre o que eu chamo de “gerenciamento de contexto” – uma capacidade empresarial para entregar o contexto mais relevante, confiável e retido para as janelas de contexto dos modelos. Isso não é apenas implementações de Geração Aumentada por Recuperação (RAG) ad hoc espalhadas por diferentes equipes. É uma abordagem sistemática para garantir que os agentes de AI tenham acesso às informações de que precisam, quando precisam, com governança e proveniência adequadas.

Aqui está um modelo mental simples: Os agentes funcionam com contexto. O contexto funciona com pipelines.

O pipeline de contexto parece assim:

fontes → streaming → armazenamento (lakehouse/OLTP) → indexação (vetor + léxico + SQL) → política/governança → serviço → observabilidade/avaliações.

Cada camada precisa funcionar de forma confiável, e elas precisam funcionar juntas. O streaming está na base porque fornece a frescura contínua que os agentes exigem.

As abordagens tradicionais de RAG são frequentemente reativas – elas buscam contexto quando solicitadas. Mas os agentes também precisam de atualizações proativas: eventos que atualizam continuamente a memória, atualizam os índices de recuperação, ajustam permissões e aplicam políticas. A aquisição da Confluent pela IBM é fundamentalmente uma aposta naquela “camada de contexto sempre atualizada” se tornando infraestrutura crítica para a AI empresarial.

Por Que os Agentes Falham (E Por Que Isso Importa)

As equipes de AI empresarial estão descobrindo essa triste verdade do jeito difícil: os agentes não falham porque o LLM é “burro”. Eles falham porque o contexto subjacente está quebrado, desatualizado, incompleto ou não governado. Na verdade, os analistas estimam que até 60% dos projetos de AI serão abandonados devido à falta de dados prontos para AI. Um agente que toma decisões de compra com base nos dados de estoque de ontem não é útil. Um agente que acessa registros de clientes sem autorização adequada é um pesadelo de conformidade. Um agente que não pode explicar seu raciocínio é inutilizável em indústrias regulamentadas.

As empresas não podem auditar decisões de AI sem proveniência. Elas não podem dimensionar aplicações de AI sem frescura de dados consistente. Elas não podem implantar agentes com confiança sem guardiões de governança adequados. Todas essas exigências apontam para a mesma conclusão: o gerenciamento de contexto precisa se tornar infraestrutura de primeira classe, não um afterthought.

O Renascimento do Open Source

Aqui começa o renascimento do open source. O contexto abrange muitos fornecedores e sistemas para que qualquer pilha proprietária singular possa vencer. A abordagem bem-sucedida será interfaces abertas mais blocos de construção portáteis: conectores, plataformas de streaming, gerenciamento de metadados, sistemas de recuperação e aplicação de políticas. Licenças fechadas retardam a integração – e a integração é o jogo todo na AI agente.

A IBM entende isso. Sua história com o open source (notadamente por meio da Red Hat) lhes dá credibilidade. A entidade combinada IBM-Confluent está posicionada para acelerar o que eles chamam de “inteligência baseada em eventos” ao abraçar a abertura onde importa: nos pontos de integração onde diferentes sistemas precisam funcionar juntos de forma transparente.

Já estamos vendo essa mudança se desenrolar. Plataformas de streaming de código aberto, formatos de tabela abertos como Apache Iceberg e Delta Lake, e padrões abertos para metadados e governança estão se tornando o tecido conectivo da infraestrutura de AI empresarial. As organizações estão exigindo portabilidade e interoperabilidade porque sabem que estarão trabalhando com vários modelos de AI, várias lojas de dados e várias ferramentas. O bloqueio é o inimigo da flexibilidade de que precisam.

Previsão para 2026

Até o final de 2026, eu prevejo que o “gerenciamento de contexto” emergirá como uma categoria nomeada nas pilhas de tecnologia empresarial. Os compradores exigirão três coisas:

  • Primeiro, conectores abertos e arquiteturas “traga seu próprio” para lojas de dados e índices. Nenhum fornecedor controlará todo o pipeline de contexto.
  • Segundo, APIs de contexto padronizadas em todas as ferramentas. As equipes precisam ser capazes de trocar componentes sem reconstruir sistemas inteiros.
  • Terceiro, proveniência governada como padrão, não como um complemento. Cada peça de contexto precisa ter uma linhagem clara, e cada decisão do agente precisa de um registro de auditoria.

Essas não são coisas que seriam bons de ter. São apostas para a adoção da AI empresarial em escala.

O Reset Começa

A IBM comprando a Confluent marca o início de um reset fundamental na infraestrutura de dados. O momentum da AI, impulsionado pela necessidade de agentes sofisticados operando em contexto fresco e confiável, está forçando a indústria a voltar à abertura. Seja isso puro open source ou, no mínimo, interoperabilidade aberta e aplicável depende de como o mercado evolui. Mas a direção é clara.

Os fornecedores que prosperam nessa nova era não serão aqueles com as pilhas mais fechadas e proprietárias. Eles serão aqueles que abraçam a abertura na camada de integração, que fornecem interoperabilidade genuína e que ajudam as empresas a construir capacidades de gerenciamento de contexto sem restrições artificiais.

A próxima onda de inovação virá da infraestrutura de AI de código aberto que permite que as empresas construam agentes e aplicações sofisticados sem bloqueio de fornecedor. Isso não é idealismo – é pragmatismo. Porque quando você está construindo sistemas de AI críticos para missão que precisam abranger toda a empresa, a abertura não é uma filosofia. É um requisito.

Sijie Guo é o Fundador e CEO da StreamNative. A jornada de Sijie com o Apache Pulsar começou no Yahoo!, onde ele fez parte da equipe que trabalhava no desenvolvimento de uma plataforma de mensagens global para a empresa. Em seguida, ele foi para o Twitter, onde liderou o grupo de infraestrutura de mensagens e co-criou o DistributedLog e o Twitter EventBus. Em 2017, ele co-fundou a Streamlio, que foi adquirida pela Splunk, e em 2019 fundou a StreamNative. Ele é um dos criadores originais do Apache Pulsar e do Apache BookKeeper, e permanece como VP do Apache BookKeeper e Membro do PMC do Apache Pulsar. Sijie mora na área da Baía de São Francisco, na Califórnia.