Connect with us

Ali Sarrafi, CEO e Fundador da Kovant – Série de Entrevistas

Entrevistas

Ali Sarrafi, CEO e Fundador da Kovant – Série de Entrevistas

mm

Ali Sarrafi, CEO e Fundador da Kovant, é um executivo de tecnologia e inteligência artificial experiente com sede em Estocolmo, com um histórico de construir e expandir empresas de inteligência artificial de alto crescimento. Desde a fundação da Kovant no final de 2024, ele tem aproveitado sua profunda experiência em estratégia de inteligência artificial empresarial, execução de mercado e escalabilidade operacional. Anteriormente, ele atuou como Vice-Presidente de Estratégia da Silo AI após sua aquisição pela AMD, onde foi responsável por moldar a estratégia de inteligência artificial empresarial e impulsionar a adoção em larga escala. No início de sua carreira, ele co-fundou a Combient Mix, liderando a empresa por um rápido crescimento e uma aquisição bem-sucedida pela Silo AI, e desde então ocupou funções de consultor e conselheiro em startups de educação e inteligência artificial, refletindo um foco consistente na tradução de inteligência artificial avançada em impacto empresarial real.

Kovant é uma empresa de inteligência artificial empresarial focada em permitir que as organizações passem do uso experimental de inteligência artificial para processos de negócios autônomos e totalmente operacionais. A empresa desenvolve uma plataforma baseada em agentes projetada para orquestrar equipes de agentes de inteligência artificial em domínios operacionais complexos, como compras, cadeias de suprimentos, conformidade e operações de clientes. Ao enfatizar a implantação segura de nível empresarial e o tempo de valor rápido, a Kovant se posiciona como uma ponte entre a ambição estratégica de inteligência artificial e a execução diária, ajudando as grandes organizações a incorporar a inteligência artificial diretamente nos fluxos de trabalho principais, em vez de tratá-la como uma ferramenta ou projeto-piloto autônomo.

Você liderou importantes iniciativas de inteligência artificial no Spotify, expandiu e saiu da Combient Mix, e mais tarde moldou a estratégia de inteligência artificial empresarial da Silo AI antes de fundar a Kovant. Quais lacunas ou frustrações específicas você encontrou nesses papéis que o convenceram de que era o momento certo de construir uma plataforma empresarial autônoma, e como essa história moldou a filosofia de design central da Kovant?

Ao longo de meus papéis anteriores, algumas lacunas consistentes continuaram aparecendo. Primeiro, a maioria das ferramentas de inteligência artificial “verticais” é efetivamente cativa a um único conjunto de software: elas fazem uma coisa ligeiramente melhor dentro daquela fronteira, mas lutam no momento em que um fluxo de trabalho precisa abranger vários sistemas. Ao mesmo tempo, os dados empresariais estão espalhados por muitas ferramentas, e muitas soluções de automação simplesmente não conseguem alcançá-los. Adicione anos de integrações pontuais e você obtém a arquitetura clássica de espaguete: a complexidade aumenta, a mudança se torna mais lenta, e as equipes acabam automatizando etapas individuais em vez de reimaginar o fluxo de trabalho de ponta a ponta. O resultado é que o ROI muitas vezes chega mais tarde – e menor – do que as organizações esperam.

A Kovant é projetada como uma resposta a essa realidade. Nossa filosofia central é que os agentes devem se comportar mais como funcionários: eles trabalham em várias ferramentas, são “contratados” para fazer trabalhos, não para automatizar uma única sequência scriptada. É por isso que as integrações e orquestração são construídas e presumimos que os dados empresariais são frequentemente desordenados e não estruturados – eles precisam de uma abordagem mais humana para lidar com exceções e ambiguidade.

Usamos agentes de fundação para alcançar velocidade e escala, mantendo a soberania de dados no centro: as empresas podem acessar e usar seus próprios dados horizontalmente sem que eles deixem as dependências.

A Kovant se posiciona como uma plataforma empresarial autônoma capaz de executar operações e departamentos inteiros com agentes de inteligência artificial. Como você define “autônoma” em um contexto empresarial, e como isso difere da automação e das ferramentas de agentes que as empresas já estão experimentando hoje?

Em um contexto empresarial, quando dizemos “autônoma” não queremos dizer “não supervisionada”. Queremos dizer que os agentes de inteligência artificial podem tomar ações reais de ponta a ponta em uma operação com metas claras e guardiões, e eles irão escalar para humanos quando a supervisão for necessária.

O que torna a Kovant diferente é nosso agente de fundação. Em vez de automatizar um único processo fixo ou seguir uma sequência pré-construída, os agentes da Kovant podem trabalhar em equipe (ou enxame) em uma operação usando apenas instruções e uma visão geral de operações que chamamos de blueprint. Eles não são projetados para uma tarefa estreita; eles colaboram para resolver fluxos de trabalho complexos, adaptam-se às mudanças nas condições e passam para as pessoas quando a situação exige supervisão.

Por exemplo, uma equipe de agentes de gerenciamento de estoque pode realizar todos os seguintes trabalhos sem reconstruí-los do zero, incluindo: comunicação com fornecedores por e-mail, monitoramento de níveis de estoque e sinais de estoque esgotado, acompanhamento de remessas e pedidos de compra, atualização de status em vários sistemas, criação de tickets de discrepância para os planejadores de estoque aprovarem, redistribuição de estoque entre armazéns e consolidação de relatórios de estoque.

Então, a mudança é em vez de “chat mais ferramentas” ou automação frágil que quebra em escala, as empresas passam de construir agentes para executá-los em escala.

Apesar do grande interesse em inteligência artificial baseada em agentes, muitas organizações ainda estão presas no modo de piloto. Quais são os principais motivos pelos quais as empresas lutam para mudar da experimentação para a produção em escala?

O que estamos vendo é que a maioria das organizações não fica presa no modo de piloto porque a ideia está errada; elas ficam presas porque o ambiente é hostil à escalabilidade.

O primeiro bloqueador é o paisagem tecnológica empresarial fragmentada. Os fluxos de trabalho abrangem muitos sistemas, os dados vivem em vários lugares, e costurar tudo de forma confiável é difícil. E a inteligência artificial baseada em agentes é frequentemente implantada como um complemento às ferramentas existentes, em vez de como uma forma de repensar como o fluxo de trabalho deve ser executado de ponta a ponta.

Há também um problema real de arquitetura e dados. Muitos fornecedores de SaaS ainda tentam bloquear os dados, o que cria incompatibilidades e limita o que os agentes podem realmente fazer em vários sistemas. E muitas equipes subestimam o fato de que a maioria dos dados empresariais é não estruturada (e-mails, documentos, tickets, PDFs, logs de chat). Se sua abordagem presume dados limpos e estruturados, o tempo de valor se torna longo, doloroso e difícil de replicar além do piloto.

Em resumo: a fragmentação, o bloqueio e os dados não estruturados criam arrasto – e os pilotos nunca se tornam produção até que essas realidades sejam projetadas.

Confiabilidade é frequentemente citada como o maior bloqueador para implantar agentes de inteligência artificial no mundo real. Por que tantos sistemas de agentes falham assim que deixam ambientes controlados, e como a abordagem da Kovant reduz problemas como alucinações e comportamento imprevisível?

Alguns sistemas de agentes parecem ótimos em demonstrações, então falham no mundo real porque o ambiente é desordenado e imprevisível. Os dados são incompletos ou inconsistentes, casos de bordo aparecem constantemente (reembolsos, disputas, aprovações especiais). Os fluxos de trabalho abrangem várias ferramentas, plataformas e integrações que mudam com o tempo, e as permissões variam. Quando um agente de inteligência artificial é solicitado a lidar com uma tarefa grande e é dado muito contexto de uma vez, o risco de alucinações e comportamento estranho aumenta.

A Kovant reduz isso por design. Nossa arquitetura única reduz o espaço de problemas, o espaço de decisão e o contexto com o qual os modelos trabalham para reduzir as alucinações. Também dividimos as operações em tarefas estreitas e focadas para agentes e etapas individuais. Isso torna o comportamento mais previsível e adiciona rastreabilidade e controle ao sistema e pode gerenciar alucinações melhor. Podemos ver o que cada agente fez, onde uma falha começou e intervir ou escalar quando necessário.

As alucinações não desaparecem magicamente, mas restringindo o que cada agente é responsável e limitando o contexto em que pode agir, podemos reduzir sua frequência e limitar seu impacto. Essa abordagem de “tarefa/contexto reduzida” também foi apoiada em trabalhos recentes da equipe de pesquisa da Nvidia, que encontrou benefícios semelhantes ao restringir a tomada de decisão do agente.

Responsabilidade é uma grande preocupação à medida que os agentes de inteligência artificial começam a tomar ações reais nos sistemas de negócios. Como os registros de ação detalhados mudam a conversa em torno de confiança, conformidade e risco operacional?

Com registros de ação detalhados, podemos ver o que aconteceu, por que aconteceu e o que acontece em seguida.

Os registros detalhados transformam um agente de um bot misterioso trabalhando na máquina em um sistema que você pode inspecionar.

Na Kovant, com qualquer implantação de agente de inteligência artificial, haverá um mapa de risco que a organização pode agir, construímos gatekeeping para humanos para ações de risco que significa que os agentes só podem realizar essas tarefas se um humano revisar e aprovar a decisão. Todos esses são registrados da mesma forma que um sistema de registros é registrado e são rastreáveis.

Acreditamos que é importante combinar registros de ação com supervisão humana e observabilidade para minimizar o risco. Isso significa que você ainda obtém os benefícios de velocidade e escala dos agentes executando operações reais.

Há uma discussão crescente sobre se os agentes de inteligência artificial podem ser segurados devido à sua tomada de decisão opaca. Como tornar os fluxos de trabalho de agentes auditáveis e reproduzíveis ajuda a resolver o problema da “caixa preta” e abre a porta para a segurabilidade?

O problema da “caixa preta” é o que torna a segurabilidade difícil. Se você não pode claramente mostrar o que um agente fez, por que o fez e quais controles estavam em vigor, é difícil para qualquer pessoa, especialmente seguradoras, precificar o risco.

Nossa abordagem é essencialmente uma extensão do conjunto de responsabilidade na resposta anterior. Dividimos o escopo de decisão e o impacto das ações em pedaços menores, para que o modelo não esteja tomando uma decisão gigante e opaca que possa afetar toda a operação. Cada etapa é mais estreita, mais previsível e mais fácil de avaliar.

Então adicionamos registros detalhados, observabilidade e supervisão humana. Para as decisões mais importantes e de maior impacto, usamos um gatekeeper humano para que o agente possa prosseguir apenas após revisão e aprovação. Isso cria muito mais visibilidade sobre como o fluxo de trabalho se comporta na prática.

Tornar os fluxos de trabalho auditáveis e reproduzíveis é a peça final. Se algo der errado, você pode reproduzir o que aconteceu, investigar rapidamente, validar correções e demonstrar como frequentemente a aprovação humana é necessária e onde os salvaguardas estão. Em termos de subscrição, isso transforma o comportamento misterioso de inteligência artificial em algo mais próximo do risco operacional padrão.

Com iniciativas como a Fundação de Inteligência Artificial Baseada em Agentes visando criar padrões compartilhados para sistemas baseados em agentes, quais são os aspectos mais promissores desses esforços, e onde eles ainda falham para operações empresariais reais?

A padronização é geralmente uma boa coisa. A Fundação de Inteligência Artificial Baseada em Agentes pode fazer o trabalho não glamoroso, mas essencial, de fazer com que os sistemas de agentes falem a mesma língua, o que deve tornar as integrações mais fáceis e reduzir o bloqueio do fornecedor com o tempo.

Onde estou cauteloso é sobre a perspectiva de quem molda os padrões. Se a maior parte do trabalho for liderada por criadores de modelos e startups de tecnologia, há o risco de que os “padrões” otimizem o que é mais fácil de construir ou demonstrar, em vez do que as grandes organizações realmente precisam para executar agentes de forma segura todos os dias.

Para operações empresariais reais, as lacunas tendem a ser menos sobre conectores e mais sobre controle: o que um agente pode acessar e alterar, fluxos de trabalho de aprovação para ações de alto impacto, registros auditáveis, e observabilidade para que as equipes possam monitorar o comportamento, investigar incidentes e provar conformidade. As empresas também precisam de padrões práticos para operar na realidade desordenada: testar contra casos de bordo, lidar com sistemas em mudança e ser capaz de pausar, conter ou reverter ações de forma segura em ambientes de dados regulamentados e ferramentas legadas.

Então, é uma direção promissora, mas o impacto será limitado a menos que os requisitos e controles de risco operacional das empresas não sejam tratados como uma afterthought.

A Kovant já gerou receita significativa de grandes empresas nórdicas enquanto operava principalmente em sigilo. Quais tipos de funções de negócios ou fluxos de trabalho estão se mostrando mais prontos para agentes de inteligência artificial autônomos hoje?

Do que vimos em implantações reais, os fluxos de trabalho mais “prontos” hoje são os compostos por trabalho de colarinho branco reativo: monitoramento, perseguição, verificação, atualização de sistemas, tratamento de exceções e manutenção das operações em andamento em várias ferramentas.

Na fabricação e nas cadeias de suprimentos empresariais mais amplas, isso se manifesta em:

  • Compras/procurement: disponibilidade de matérias-primas, fontes sustentáveis, operações de conformidade, seleção de fornecedores (incluindo fontes duplas/múltiplas), gerenciamento de contratos, gestão de risco de fornecedores e licitação/gerenciamento de propostas.
  • Produção: planejamento de capacidade, programação de produção, gerenciamento de manutenção, gerenciamento de qualidade, gerenciamento de gargalos e prevenção de perdas.
  • Armazenamento: recebimento e inspeção, gerenciamento de estoque, rotação de estoque (FIFO/FEFO) e contagem/ciclagem de estoque.
  • Transporte / logística: seleção de modo e transportadora, limiar alfandegário/documentação, rastreamento e visibilidade, monitoramento de emissões e conformidade comercial.
  • Vendas e serviço: disponibilidade de produtos, prevenção de estoque esgotado, gerenciamento de vendas/devoluções, análise de comportamento do consumidor, além de áreas de pós-venda como reparos, rastreamento de fim de vida, operações de oficina e contratos de serviço.

Quando as empresas implantam agentes de inteligência artificial em operações críticas, como você recomenda equilibrar a autonomia com a supervisão humana para garantir o controle sem desacelerar tudo?

O equilíbrio é governado pela autonomia. Você tem que deixar os agentes se moverem rapidamente no trabalho de baixo risco dentro de guardiões claros e escalar para humanos quando a ação cruza um limiar de risco definido.

Muitos fracassos vêm de dar ao modelo muito escopo e muito contexto de uma vez. Recomendo dividir as operações em decisões estreitas e de âmbito limitado, onde cada etapa tem permissões claras e um raio de impacto limitado. Isso reduz o comportamento imprevisível e torna o desempenho mais fácil de monitorar e melhorar.

Então, você combina três coisas: observabilidade, registros de ação e gatekeeping humano. Tudo o que o agente faz deve ser rastreável, para que você possa inspecionar o que aconteceu e investigar rapidamente. Para ações de alto impacto ou de risco, você coloca uma etapa de aprovação humana no fluxo de trabalho, para que o agente possa propor e preparar, mas apenas executar após um humano aprovar.

Isso mantém as coisas se movendo rapidamente. Se algo, isso desacelera apenas ligeiramente na etapa de supervisão humana, mas essa é uma parte importante do processo. Os humanos não estão presos supervisionando cada clique, mas ainda estão no controle dos momentos que importam. O resultado é velocidade onde é seguro e supervisão onde é necessária.

Olhando para frente, como você espera que o papel dos agentes de inteligência artificial autônomos evolua dentro das grandes organizações nos próximos anos, e o que separará as empresas que terão sucesso com a inteligência artificial baseada em agentes daquelas que lutam?

Nos próximos anos, os agentes de inteligência artificial autônomos passarão de experimentos interessantes para se tornarem uma camada de operação real dentro das grandes organizações. Eles serão usados para operações, serviço ao cliente, finanças e RH. À medida que a confiabilidade, governança e supervisão melhoram, veremos as empresas mudarem de pilotos isolados para executar equipes de agentes em fluxos de trabalho de ponta a ponta.

A maior mudança é que velocidade, agilidade, escala, eficiência e custos se tornarão um alavanca competitiva mais direta. Acredito que um “movimento Uber” está vindo para as empresas. As que realmente dominam a inteligência artificial baseada em agentes serão capazes de operar em um ritmo fundamentalmente mais rápido do que os atrasados, capturar mercados mais rápido e responder às mudanças sem o arrasto operacional usual.

O que separa os vencedores não é apenas implantar agentes, é implantá-los bem. Autonomia governada, observabilidade forte e registros de ação, e arquiteturas que reduzem o escopo de decisão serão fundamentais para isso. As empresas que tratam a inteligência artificial baseada em agentes como uma capacidade operacional central, com os controles, integração e propriedade certos, usarão isso para fazer mais, não menos. Isso libertará as equipes para se concentrar em crescimento e inovação em vez de passar os dias enterrados na administração. Em resumo, velocidade radical e eficiência se tornarão uma vantagem competitiva real em escala empresarial.

Obrigado pela grande entrevista, leitores que desejam aprender mais devem visitar Kovant.

Antoine é um líder visionário e sócio-fundador da Unite.AI, impulsionado por uma paixão inabalável em moldar e promover o futuro da IA e da robótica. Um empreendedor serial, ele acredita que a IA será tão disruptiva para a sociedade quanto a eletricidade, e é frequentemente pego falando sobre o potencial das tecnologias disruptivas e da AGI. Como um futurista, ele está dedicado a explorar como essas inovações moldarão nosso mundo. Além disso, ele é o fundador da Securities.io, uma plataforma focada em investir em tecnologias de ponta que estão redefinindo o futuro e remodelando setores inteiros.