Líderes de pensamento
Como Eu Transfiri Meu Conhecimento para Sistemas de IA Que Podem Realmente Tomar Decisões Como Especialistas Humanos

Quando eu deixei a Microsoft e continuei trabalhando com empresas em suas implantações de IA, eu continuei vendo que a maioria dos sistemas de IA que as pessoas estavam animadas não podiam realmente tomar decisões com julgamento humano verdadeiro. Claro, eles podiam escrever, resumir e produzir textos notavelmente fluentes que soavam como uma decisão, mas quando você coloca esses sistemas em um ambiente operacional real, onde há trade-offs, incertezas, instruções incompletas e consequências reais, eles lutam rapidamente. Isso coincide com os dados do Projeto NANDA do MIT, mostrando que, enquanto 60% das organizações avaliaram ferramentas de IA, apenas 20% alcançaram a fase de piloto e apenas 5% alcançaram a produção. Em outras palavras, a indústria está lutando para construir sistemas que possam realmente se manter dentro de fluxos de trabalho reais.
Em ambientes empresariais, especialmente em áreas como cadeia de suprimentos, manufatura e operações, obter uma resposta não é difícil; é saber qual resposta confiar, quais variáveis são mais importantes e o que provavelmente dará errado a jusante se você estiver errado. Em minha opinião, isso é tanto um problema de especialização quanto de julgamento.
Para ser claro, a IA fez avanços extraordinários na produção de saídas melhores. Mas uma saída melhor não é a mesma coisa que uma decisão melhor. Esses são dois marcos distintos, e acho que a indústria gastou muito tempo tratando-os como intercambiáveis.
A falta de especialização e julgamento é por que me interessei em construir IA que especialistas humanos possam ensinar a tomar decisões complexas do jeito que eles fazem. A IA não deve ser apenas sobre automatizar tarefas, mas sobre transferir efetivamente e com segurança o julgamento humano para a IA que se mantém.
Modelos de linguagem grandes (LLMs) falam como tomadores de decisões, mas não são
Não há dúvida de que os LLMs são úteis, mas eles não são, por padrão, sistemas de tomada de decisões. Eles são sistemas de previsão envoltos em linguagem. E a linguagem é persuasiva, o que é parte do problema. Se um sistema pode explicar-se fluentemente, facilmente superestimamos o que ele entende. Você pergunta a ele uma pergunta de negócios, ele dá uma resposta estruturada com trade-offs, cautelas e um resumo elegante no final, fazendo com que pareça mais inteligente do que é. Soar coerente e ser competente operacionalmente não são a mesma coisa, e é aqui que muita IA empresarial quebra. Modelos podem dizer o que uma boa decisão soa sem ter nenhum entendimento do que torna uma decisão boa sob pressão, ao longo do tempo ou em contexto. Essa é uma das razões pelas quais muitas organizações lutam para ir além da experimentação. A Gartner encontrou que pelo menos 50% dos projetos de IA geradora são abandonados após provas de conceito, muito antes de entregarem um impacto operacional real, frequentemente devido a controles de valor e risco não claros.
Informação não é a mesma coisa que especialização
Uma das armadilhas mais fáceis de cair com a IA é supor que, se um sistema tiver informações suficientes, ele deve ser capaz de se comportar como um especialista. Soa razoável, mas quando você pensa sobre isso em nossa vida cotidiana, aumentar nossas informações sobre algo não nos torna automaticamente especialistas. Você pode ler todos os manuais de aviação e ainda não estar pronto para pousar um avião. Você pode memorizar todas as melhores práticas da cadeia de suprimentos e ainda congelar quando três coisas dão errado ao mesmo tempo.
Posso continuar, mas o ponto é que a informação não se iguala à capacidade. A capacidade vem da experiência, especificamente, da exposição repetida a situações desordenadas onde a resposta não é óbvia.
Todos os dias, vejo que a maioria dos sistemas de IA de hoje é treinada em exemplos estáticos. Isso é útil para fazer previsões, mas essa é apenas uma pequena parte da tomada de decisões. As empresas não carecem de dados per se, mas precisam de ambientes estruturados para prática, o que significa dar aos sistemas ambientes onde eles possam repetidamente:
- Encontrar cenários realistas
- Fazer escolhas
- Ver o que acontece
- Receber feedback
- Melhorar com o tempo
A IA pode ser treinada usando algoritmos preditivos, mas essa abordagem tem limitações. O que é necessário em seguida é uma IA que possa ser treinada em um ambiente simulado com supervisão humana. Eu chamo isso de ensino de máquina, uma metodologia que divide decisões complexas em cenários e habilidades, fornecendo um guia para especialistas humanos ensinarem a IA por simulação. O feedback e o erro resultantes eventualmente permitem que os agentes aprendam e ajam com autonomia real diretamente das pessoas que construíram esses processos.
Pare de tratar a IA como um monólito
Outro erro que vejo muito é a suposição de que um grande modelo deve fazer tudo. Nenhuma equipe de basquete é composta por apenas uma pessoa. Nenhuma fábrica é operada por um indivíduo. Sistemas complexos funcionam porque diferentes componentes fazem diferentes trabalhos, e há uma estrutura que os mantém juntos.
A IA deve ser construída da mesma maneira. Não acho que o futuro a longo prazo da tomada de decisões empresariais seja um grande modelo sentado no meio da empresa fingindo ser universalmente competente. É muito mais provável que pareça com equipes de agentes especializados.
Um agente pode ser um especialista em recuperação de dados. Outro é melhor em avaliar cenários. Outro lida com planejamento. Um verifica conformidade ou pega contradições. Outro age mais como um supervisor, decidindo quando escalar ou quando a confiança é muito baixa para prosseguir. A arquitetura de equipe faz muito mais sentido para mim porque mapeia como as organizações reais realmente funcionam e se alinha com tendências de mercado mais amplas. As descobertas da McKinsey reforçam que as organizações obtêm o maior valor da IA redesenhando fluxos de trabalho e estruturas operacionais em torno dela.
Não todas as decisões são tomadas da mesma maneira, e muitas vezes assumimos que o mesmo modelo, os mesmos dados e o mesmo tipo de raciocínio podem lidar com todos. Na realidade, diferentes decisões exigem diferentes mecanismos.
As quatro maneiras pelas quais as decisões realmente acontecem
Em minha experiência, a maioria das decisões tende a cair em algumas categorias:
- Sistemas de controle (regras e fórmulas): Decisões são tomadas aplicando equações ou regras predefinidas a entradas conhecidas. Se X acontece, faça Y.
- Busca e otimização: Decisões são tomadas avaliando muitas opções possíveis e selecionando a melhor com base em um objetivo definido.
- Aprendizado por reforço (ensaio e erro): Decisões são aprendidas ao longo do tempo, tomando ações, observando resultados e ajustando com base em recompensa ou penalidade.
- Prática e experiência (aprendizado estilo humano): Decisões são moldadas por exposição repetida, feedback guiado e julgamento acumulado em cenários do mundo real.
A maioria da IA empresarial se sai bem nas duas primeiras categorias. As terceira e quarta categorias são mais desafiadoras para a IA, porque é onde o julgamento humano vive.
Autonomia sem estrutura é risco
Sempre que as pessoas falam sobre IA autônoma, a conversa tende a se dividir em dois extremos. Um lado acha que os sistemas são basicamente mágicos e prontos para operar tudo. O outro lado age como se eles nunca devessem ser confiáveis com nada significativo.
Não acho que nenhuma visão seja útil. Devemos nos concentrar na autonomia dentro da estrutura, porque a autonomia sem lógica de escalonamento, fronteiras ou responsabilidade é a principal fonte de risco. Preocupações de risco estão aparecendo mais agora, também, incluindo em conversas moldadas por esforços como o Quadro de Gerenciamento de Risco de IA do Instituto Nacional de Padrões e Tecnologia, que reflete como seriamente as organizações estão levando questões de supervisão, responsabilidade e confiança operacional.
O futuro da IA empresarial está em equipes de agentes. As organizações que obtêm o maior valor da IA não serão aquelas que automatizam as palavras mais. São aquelas que descobrem como transferir especialização real para sistemas que possam se manter quando o ambiente fica desordenado. Isso, em minha opinião, é a diferença entre IA que parece impressionante e IA que se torna genuinamente útil, produzindo ROI real.












