Connect with us

Entrevistas

Pablo Ormachea, VP de Dados da Motus – Série de Entrevistas

mm

Pablo Ormachea, VP de Dados da Motus, constrói sistemas de inteligência artificial e análise de dados projetados para se mover rapidamente enquanto resistem a escrutínio regulatório e financeiro. Ele lidera equipes totalmente remotas e multifuncionais e se concentra em sistemas de tomada de decisão baseados em evidências que melhoram a retenção, expandem as margens e entregam ROI mensurável. Na Motus, ele reprojeto a análise para mais de 350.000 motoristas, alcançando relatórios 60 vezes mais rápidos com zero timeouts, e lançou sistemas de IA/ML, incluindo detecção de anomalias e previsão de churn que economizaram milhões de dólares para os clientes. Ele também coautou o quadro de governança de IA da Motus, permitindo experimentação segura de LLM com defaults claros, auditoria forte e lógica de negócios consistente em toda a pilha de dados.

Motus é uma empresa de software de gerenciamento de força de trabalho e mobilidade que ajuda as organizações a gerenciar reembolsos de veículos, rastreamento de milhas e operações de força de trabalho móvel. Sua plataforma em nuvem automatiza programas de reembolso com vantagens fiscais, entrega relatórios e insights em tempo real e ajuda as empresas a reduzir custos, melhorar a produtividade e gerenciar a conformidade para os funcionários que dirigem como parte de seus trabalhos.

Você construiu uma carreira única na interseção da engenharia de IA, estratégia de dados e regulação — desde a Faculdade de Direito de Harvard até liderar dados e IA na Motus. Quais experiências-chave moldaram sua abordagem para construir sistemas de IA que são tecnicamente avançados e conformes com estritos quadros regulatórios?

Eu aprendi cedo a tratar a conformidade como uma restrição de engenharia, não como um pós-pensamento legal. Se você constrói a rodovia, você pode dirigir a velocidades de rodovia. Se você finge que é uma estrada de terra e acelera de qualquer forma, você não se move mais rápido. Você apenas bate mais cedo.

A Faculdade de Direito de Harvard ajudou de uma maneira surpreendente porque o sistema de direito comum é basicamente aprendizado residual. Uma regra encontra a realidade. Casos de bordo expõem onde ela falha. A doutrina refina.

Esse é o mesmo modelo mental que eu uso para IA em produção. Cada residual é um presente. Ele diz a você onde suas suposições divergem do mundo real e dá a você um caminho concreto para apertar o sistema.

Então, eu otimizo para duas coisas ao mesmo tempo: velocidade de envio e carga de prova. O objetivo não é “inovação versus conformidade”. O objetivo é construir sistemas que possam se mover rapidamente e ainda responder, claramente e repetidamente, “Como você sabe?”

Você coautou a política de governança de IA da Motus que simplificou aprovações enquanto mantinha controles fortes. Quais princípios guiaram você ao projetar essa política, e como você equilibra a velocidade de inovação com a preparação para auditoria?

Nós não nos propusemos a escrever regras. Nós desenhamos um mapa. Quando a adoção de IA começa, o interesse vem de todas as direções, e a velocidade pode se transformar em ruído, ou pior, responsabilidade. Então, o primeiro trabalho é a clareza: onde os LLMs podem executar e onde não podem, quais dados permanecem estritamente dentro e quais tipos de experimentos são permitidos em uma faixa segura.

O equilíbrio vem de tornar o caminho seguro o caminho fácil. A governança falha quando é um comitê. Ela funciona quando se torna defaults: ferramentas aprovadas, limites de dados claros, registro padrão e uma faixa de aprovação rápida para casos de bordo. O objetivo é que os construtores não precisem renegociar a segurança a cada vez que enviam.

Então, a preparação para auditoria se torna um subproduto. Você não está se esforçando para montar evidências após o fato porque o sistema gera as evidências à medida que executa.

Você disse que as práticas de IA devem atender ao “escrutínio do nível do IRS”. Você pode compartilhar um exemplo onde considerações regulatórias influenciaram diretamente uma decisão técnica de IA ou ML na Motus?

Em fluxos de trabalho regulados, a pergunta não é apenas “o modelo é preciso?” É “você pode mostrar seu trabalho mais tarde?” Essa realidade molda o que “bom” significa na Motus.

Isso muda as escolhas de design. Para certos casos de uso, nós nos inclinamos para abordagens que sejam explicáveis, reproduzíveis e fáceis de auditar. Às vezes, isso significa famílias de modelos mais simples. Muitas vezes, isso significa guardiões determinísticos, recursos versionados e registro de entradas e saídas de uma forma que suporte a reprodução real.

Um exemplo concreto: quando atualizamos partes da nossa lógica de reembolso e relatórios, nos esforçamos para tornar a rastreabilidade nos principais pontos de decisão. Queríamos que o sistema respondesse, a pedido, qual regra foi acionada, quais dados foram usados, qual versão estava executando e o que mudaria o resultado. Isso tornou os componentes de IA mais usáveis e tornou o fluxo de trabalho todo mais fácil de defender.

O pagamento compõe. Quando você pode reproduzir o comportamento e fatiar erros, os resíduos param de ser misteriosos. Eles se tornam uma lista de pendências priorizada: o que falhou, onde, por quê e qual mudança fecha a lacuna.

A Motus opera soluções para reembolso de veículos e mitigação de riscos que devem atender aos requisitos do IRS e outros regulamentos. Como a IA melhora a conformidade e a precisão nesses casos de uso empresariais?

A IA ajuda de duas maneiras: reduz a fricção manual e fortalece a defensibilidade.

No reembolso, o valor não é apenas a automação, é a consistência. A IA pode ajudar a classificar viagens, detectar anomalias e surfacear informações faltantes mais cedo, o que reduz a reconciliação downstream. Ninguém quer que o reembolso se torne um projeto de arqueologia mensal. O benefício de conformidade vem da melhor mensuração e melhor documentação. Você suporta os resultados com um registro claro em vez de confiar na reconstrução posterior.

No risco, a IA é útil porque as verificações de ponto no tempo não são suficientes. As empresas querem conscientização contínua do que mudou, o que parece errado e o que precisa de atenção. Os melhores sistemas de IA aqui não são dramáticos. Eles são quietos, consistentes e mensuráveis.

Liderar equipes remotas e multifuncionais que colaboram com Jurídico, Segurança, Finanças e Produto não é uma tarefa fácil. Quais são os maiores desafios que você enfrentou ao alinhar esses grupos em torno de iniciativas de dados e IA?

A parte mais difícil é que cada grupo é racional e otimiza para diferentes riscos.

A Segurança se preocupa com a exposição. O Jurídico se preocupa com a defensibilidade. A Finança se preocupa com o custo e a previsibilidade. O Produto se preocupa com a velocidade e o valor do cliente. Dados e engenharia se preocupam com a viabilidade e a confiabilidade. Se você tratar esses como agendas concorrentes, você estagna.

A solução é linguagem compartilhada e faixas claras. Nós alinhamos na decisão em jogo, definimos os limites e concordamos sobre o que a evidência “boa” exige. Então, construímos defaults para que a maioria do trabalho possa se mover sem cerimônia.

Eu descobri que a clareza supera a persuasão. Quando as pessoas podem ver o mapa, o alinhamento se torna muito mais fácil.

Você impulsionou melhorias de desempenho significativas — como relatórios 60 vezes mais rápidos para 350.000+ motoristas e milhões em economia de clientes. Como você decide quais projetos de IA/ML priorizar para impacto tático e valor estratégico?

Eu priorizo projetos que passam em três testes.

Primeiro, eles devem mudar uma decisão real ou fluxo de trabalho, não apenas produzir uma pontuação inteligente. Se a saída não muda o comportamento de forma confiável, é um demo, não um produto.

Segundo, eles devem ser mensuráveis. Meus avós costumavam dizer “bem medido é metade feito”. Em ambientes regulados, é mais do que metade. Se não podemos definir o sucesso, os modos de erro e o monitoramento antecipadamente, significa que não entendemos o trabalho ainda.

Terceiro, eles devem ser defensáveis sob escrutínio. Isso inclui proveniência de dados, limites de acesso e a capacidade de explicar e reproduzir os resultados.

Quando um projeto passa nesses testes, ele tende a criar vitórias táticas e compounding estratégico. Na Motus, é assim que entregamos melhorias de desempenho significativas, incluindo relatórios materialmente mais rápidos em escala, menos exceções e automação que se traduz em economia de tempo real para os clientes.

Confiança e explicabilidade são críticas para a adoção de IA empresarial. Como sua equipe garante que os modelos sejam interpretáveis e confiáveis para partes interessadas em unidades de negócios?

A confiança vem da clareza, consistência e um sistema que possa explicar a si mesmo sob pressão.

Nós projetamos sistemas com um botão de reprodução. Mesmas entradas, mesma versão, mesma saída, mais um rastro de evidências de o que mudou ao longo do tempo. Nós também tornamos os resíduos visíveis. Cada erro é informação. Se você instrumenta os erros adequadamente, você pode explicar o comportamento em linguagem clara e melhorá-lo de forma disciplinada.

Quando uma decisão tem exposição de auditoria, nos inclinamos para modelos mais simples mais fortes do que complexidade opaca. Praticamente, isso significa definições de dados claras, avaliação que fatia o desempenho por segmentos significativos, monitoramento para deriva e um processo de alteração documentado. As partes interessadas não precisam de todos os detalhes técnicos. Elas precisam de confiança de que o sistema é medido, limitado e melhorado.

Em ambientes empresariais, a explicabilidade não é uma preferência filosófica. É um requisito para adoção, e isso importa quando os clientes precisam resistir a auditorias futuras.

Desde a lei, neurociência, estatística e IA aplicada, quais orientações você daria a jovens profissionais que aspiram liderar dados e IA em ambientes de negócios complexos?

Aprenda a construir sistemas, não apenas modelos. Ou, de outra forma, construa a rodovia, instrumente os erros e mantenha o mapa atualizado.

Aproxime-se das pessoas que vivem o resultado. Operadores de linha muitas vezes veem sinais antes que seus dados vejam. O feedback deles não é “anecdótico”. É frequentemente o conjunto de recursos ausente.

Desenvolva confort com a mensuração e humildade sobre o erro. Resíduos são presentes se você estiver disposto a ouvir. Em ambientes regulados, adicione a disciplina da carga de prova: seja capaz de explicar o que você construiu, por que se comportou da maneira que fez e o que fará quando mudar.

Finalmente, lembre-se de que a adoção é parte do trabalho. A gestão de mudanças não é um add-on suave. É um requisito central se você quiser que sua IA seja usada. Isso significa que não é suficiente ser forte em dados, modelos e algoritmos. Você precisa trabalhar bem através de unidades de negócios, ganhar confiança e navegar o caminho humano que transforma um modelo bom em uma capacidade real. Se você puder fazer isso, você não apenas construirá modelos, você construirá confiança.

Obrigado pela grande entrevista, leitores que desejam aprender mais devem visitar Motus.

Antoine é um líder visionário e sócio-fundador da Unite.AI, impulsionado por uma paixão inabalável em moldar e promover o futuro da IA e da robótica. Um empreendedor serial, ele acredita que a IA será tão disruptiva para a sociedade quanto a eletricidade, e é frequentemente pego falando sobre o potencial das tecnologias disruptivas e da AGI. Como um futurista, ele está dedicado a explorar como essas inovações moldarão nosso mundo. Além disso, ele é o fundador da Securities.io, uma plataforma focada em investir em tecnologias de ponta que estão redefinindo o futuro e remodelando setores inteiros.