Connect with us

Por que os Agentes de IA nas Empresas Enfrentam um Problema de Conhecimento, Não de Tecnologia

Líderes de pensamento

Por que os Agentes de IA nas Empresas Enfrentam um Problema de Conhecimento, Não de Tecnologia

mm
A row of antique leather-bound books stands next to a glowing metal bookend featuring a purple light-up geometric structure on a wooden desk in a modern high-rise office at night.

No ano passado, a S&P Global relatou que a parcela de empresas que abandonam a maioria de suas iniciativas de IA mais do que dobrou, de 17% para 42%. Antes disso, a Gartner publicou uma previsão sobre projetos de IA agêntica: 40% deles serão cancelados até o final de 2027.

De acordo com a McKinsey & Company, quase metade de todas as empresas está experimentando com agentes de IA. Mas quantas delas ultrapassaram a fase de teste e estão realmente operacionais? Cerca de uma em dez.

A indústria não tem falta de explicações: alucinações de modelo, falta de governança, altos custos de GPU e escassez de especialistas. Todos esses são desafios reais. Mas, após três anos trabalhando com sistemas de gerenciamento de conhecimento e agentes de IA, estou cada vez mais vendo um padrão diferente: empresas passando dados incompletos para seus agentes.

Como Doutor em Ciências Pedagógicas, vejo isso como um problema de transferência de conhecimento. Se uma pessoa não pode explicar como toma decisões, sua lógica não pode ser transferida para um novo funcionário — muito menos para um agente de IA. Vamos explorar por que isso acontece e o que pode ser feito a respeito.

Onde reside o conhecimento sobre como uma empresa realmente opera

Pergunte a uma grande empresa onde o conhecimento dos funcionários é armazenado, e você ouvirá uma longa lista: Confluence, SharePoint, plataformas LMS, bots de FAQ, arquivos do Slack. Pode parecer que isso é exatamente o que um sistema RAG pode usar para recuperar tudo o que precisa. Mas um elemento crucial está faltando — o conhecimento que vive na cabeça das pessoas. Conhecimento que ninguém nunca escreveu.

Por que isso é um problema?

Porque, para um agente de IA assumir parte de um fluxo de trabalho — entender o contexto, escolher uma ação e levar a tarefa até a conclusão —, ele precisa não apenas de acesso a uma base de conhecimento, mas também da lógica de tomada de decisão usada por um especialista experiente.

Imagine um novo agente de suporte recebendo um pedido: um cliente afirma ter pago por um serviço, mas o acesso não foi ativado. O script inclui um conjunto padrão de etapas que termina com a solicitação de que o cliente aguarde. No entanto, o agente nota que a situação é incomum: o cliente já entrou em contato com o suporte duas vezes, e há vários casos semelhantes no sistema nas últimas horas. Ele se comunica com um colega mais experiente, que explica que já viu isso antes e que o problema provavelmente é uma falha na interseção do gateway de pagamento, do banco e do sistema de ativação interno — portanto, o caso deve ser escalonado para outro departamento.

Para um agente de IA, essa lógica é invisível. Ele pode ter acesso ao script, ao histórico do ticket e ao status do pagamento, se essas fontes de dados estiverem conectadas, mas não sabe quais sinais um operador experiente considera decisivos. Não é que os especialistas estejam intencionalmente retendo esse conhecimento. Eles simplesmente não podem formalizá-lo ou dividi-lo em etapas: quais opções foram descartadas, por que uma ação particular foi escolhida e em que ponto ficou claro que o cenário padrão não se aplicava. Cientistas cognitivos se referem a esse fenômeno como conhecimento tácito — conhecimento implícito que até o próprio detentor pode não estar plenamente ciente.

Isso é por que o gargalo não surge no nível de acesso a documentos, mas na etapa de conversão da experiência do especialista em um formato adequado para treinar um agente de IA.

O que fazer a respeito

Para fazer um agente de IA funcionar de forma eficaz, não é suficiente simplesmente conectar um LLM a uma base de conhecimento corporativa, porque decisões bem-sucedidas frequentemente dependem de conhecimento tácito. Uma camada de conhecimento deve ser criada primeiro, incluindo critérios de tomada de decisão estruturados.

No gerenciamento de conhecimento, esse processo é chamado de externalização — converter conhecimento tácito em conhecimento explícito. Em outras palavras, uma empresa precisa entender não apenas o que um especialista faz, mas como ele pensa. Isso geralmente é feito por meio de uma série de entrevistas aprofundadas com um especialista de ponta. Ao lado dele deve haver alguém habilidoso em fazer as perguntas certas: um metodologista, engenheiro de conhecimento ou especialista em design instrucional. Sua tarefa não é escrever um “manual baseado no que o especialista diz”, mas reconstruir os critérios para escolher entre opções, dividir casos de bordo e trazer à tona erros típicos que o especialista já lida automaticamente.

Aqui, a IA pode ajudar significativamente: transcrevendo entrevistas, agrupando casos semelhantes, transformando explicações de especialistas em rascunhos de cenários e gerando situações para validação. No entanto, a estrutura final ainda precisa ser revisada e aprovada pelo especialista.

O resultado deve ser um corpus de conhecimento em funcionamento. Ele pode ser usado em duas direções ao mesmo tempo — para treinar novos funcionários e para configurar um agente de IA. Ambos os cenários dependem da mesma base: experiência estruturada de especialistas de ponta.

A alternativa é continuar confiando na suposição de que o RAG sobre o Confluence de alguma forma reconstruirá a lógica que nunca foi documentada. Na prática, isso quase nunca funciona: o sistema pode recuperar um documento relevante, mas não aprenderá a tomar decisões em situações em que a ação correta depende do contexto e da experiência.

Como verificar se um agente está pronto para trabalhar

Você transformou o conhecimento do especialista em cenários e configurou o agente. Mas há uma lacuna entre as respostas plausíveis do agente e o desempenho operacional real — e essa lacuna só se torna visível durante a validação. Nessa etapa, é importante determinar se você realmente capturou todo o conhecimento necessário.

Uma abordagem prática é o teste baseado em cenários. Você fornece ao agente casos reais do trabalho diário de um especialista: um cliente contesta uma cobrança, um e-mail incomum chega ou um pedido aparece que não se encaixa no script básico. Os resultados não devem ser avaliados por outro LLM, mas pelo mesmo especialista que ajudou a construir o corpus de conhecimento. Se o agente tomar um caminho diferente do especialista experiente, não significa necessariamente que o modelo é fraco. Mais frequentemente, indica que uma regra crítica, exceção ou exemplo está faltando. Nesse caso, o processo volta ao início: o metodologista esclarece a lógica com o especialista, o corpus de conhecimento é atualizado, as instruções são aprimoradas e o teste é repetido.

Esse ciclo não é uma etapa opcional, mas uma etapa que define a diferença entre um agente que apenas “demonstra potencial” e um que realmente realiza o trabalho. É uma parte lenta e não muito impressionante do processo: não produz uma demonstração impressionante e exige a participação de especialistas. Mas aqueles que passam por isso sistematicamente acabam com agentes que realmente reduzem a carga de trabalho de rotina para os especialistas. Aqueles que pulam essa etapa, dentro de seis meses, frequentemente se encontram nas estatísticas da Gartner, que prevê que 40% dos projetos serão cancelados.

A IA agêntica não falha devido à tecnologia — os modelos modernos já são capazes de realizar tarefas complexas. Ela falha porque as empresas “alimentam” a IA com conhecimento incompleto. Em 2024-2025, isso ainda podia ser explicado pela fase experimental. Em 2026, esse erro já tem um alto custo.

Dmytro Korchevskyi é o fundador da Sintegrum, uma plataforma de RH alimentada por IA que ajuda as empresas a automatizar o recrutamento, integração, treinamento de funcionários e gestão do conhecimento.

Ele também fundou a STEP IT Academy, uma rede de educação global que opera em 26 países, e possui um doutorado em pedagogia, com foco em como a IA pode apoiar o aprendizado escalável e o desenvolvimento da força de trabalho.