Entre em contato

Pablo Ormachea, Vice-Presidente de Dados da Motus – Série de Entrevistas

Entrevistas

Pablo Ormachea, Vice-Presidente de Dados da Motus – Série de Entrevistas

mm

Pablo Ormachea, Vice-Presidente de Dados da Motus, desenvolve sistemas de IA e análise de dados corporativos projetados para serem ágeis e, ao mesmo tempo, resistirem ao escrutínio regulatório e financeiro. Ele lidera equipes multifuncionais totalmente remotas e se concentra em sistemas de decisão baseados em evidências que melhoram a retenção, expandem as margens e geram ROI mensurável. Na Motus, ele reformulou a análise de dados para mais de 350,000 motoristas, alcançando relatórios 60 vezes mais rápidos e sem timeouts, e implementou sistemas de IA/ML, incluindo detecção de anomalias e previsão de churn, que economizaram milhões para os clientes. Ele também foi coautor da estrutura de governança de IA da Motus, permitindo a experimentação segura de aprendizado de máquina com padrões claros, forte auditabilidade e lógica de negócios consistente em toda a pilha de dados.

Motus é uma empresa de software de gestão de força de trabalho e mobilidade que ajuda organizações a gerenciar reembolsos de veículos, rastreamento de quilometragem e operações de equipes móveis. Sua plataforma em nuvem automatiza programas de reembolso com vantagens fiscais, fornece relatórios e insights em tempo real e ajuda empresas a reduzir custos, aumentar a produtividade e gerenciar a conformidade para funcionários que dirigem como parte de suas funções.

Você construiu uma carreira singular na interseção entre engenharia de IA, estratégia de dados e regulamentação — da Faculdade de Direito de Harvard à liderança de dados e IA na Motus. Quais experiências-chave moldaram sua abordagem para a construção de sistemas de IA que sejam tecnicamente avançados e, ao mesmo tempo, estejam em conformidade com as rigorosas estruturas regulatórias?

Aprendi desde cedo a encarar a conformidade como uma restrição de engenharia, não como uma mera formalidade legal. Se você constrói a rodovia, pode dirigir em velocidades de rodovia. Se você finge que é uma estrada de terra e acelera ao máximo mesmo assim, você não vai mais rápido. Você apenas vai bater mais cedo.

A Faculdade de Direito de Harvard ajudou de uma forma surpreendente, porque o sistema de direito consuetudinário é basicamente um aprendizado baseado em experiências residuais. Uma regra encontra a realidade. Casos extremos expõem onde ela falha. A doutrina se refina.

Esse é o mesmo modelo mental que uso para IA em produção. Cada resíduo é uma dádiva. Ele mostra onde suas suposições divergem do mundo real e oferece um caminho concreto para aprimorar o sistema.

Portanto, otimizo duas coisas ao mesmo tempo: velocidade de entrega e ônus da prova. O objetivo não é "inovação versus conformidade". O objetivo é construir sistemas que possam se mover rapidamente e ainda responder, de forma clara e repetível, à pergunta: "Como você sabe?"

Você foi coautor da política de governança de IA da Motus, que simplificou as aprovações, mantendo controles rigorosos. Quais princípios o guiaram na elaboração dessa política e como você equilibra a velocidade da inovação com a preparação para auditorias?

Não nos propusemos a criar regras. Elaboramos um mapa. Quando a adoção da IA ​​começa, o interesse surge de todas as direções, e a velocidade pode se transformar em ruído ou, pior, em responsabilidade. Portanto, a primeira tarefa é a clareza: onde os modelos de aprendizagem colaborativa (LLMs) podem ser executados e onde não podem, quais dados permanecem estritamente restritos e que tipos de experimentos são permitidos em um ambiente seguro.

O equilíbrio vem de tornar o caminho seguro o caminho mais fácil. A governança falha quando é um comitê. Ela funciona quando se baseia em padrões: ferramentas aprovadas, limites de dados claros, registro padronizado e um processo de aprovação rápido para casos extremos. O objetivo é que os desenvolvedores não precisem renegociar a segurança a cada lançamento.

Assim, a preparação para auditoria torna-se uma consequência natural. Você não precisa se apressar para reunir evidências posteriormente, pois o sistema gera as evidências durante sua execução.

Você afirmou que as práticas de IA devem atender a um escrutínio "até mesmo do nível da Receita Federal". Pode compartilhar um exemplo em que considerações regulatórias influenciaram diretamente uma decisão técnica de IA ou ML na Motus?

Em fluxos de trabalho regulamentados, a questão não é apenas "o modelo é preciso?", mas sim "você consegue demonstrar seu trabalho posteriormente?". Essa realidade define o que significa "bom" na Motus.

Isso altera as escolhas de design. Para certos casos de uso, priorizamos abordagens que sejam explicáveis, reproduzíveis e fáceis de auditar. Às vezes, isso significa famílias de modelos mais simples. Frequentemente, significa salvaguardas determinísticas, recursos versionados e registro de entradas e saídas de forma a permitir a reprodução verdadeira.

Um exemplo concreto: quando atualizamos partes da nossa lógica de reembolso e relatórios, priorizamos a rastreabilidade em pontos de decisão cruciais. Queríamos que o sistema respondesse, sob demanda, qual regra foi acionada, quais dados foram utilizados, qual versão estava em execução e o que alteraria o resultado. Isso tornou os componentes de IA mais utilizáveis ​​e facilitou a defesa de todo o fluxo de trabalho.

Os benefícios se acumulam. Quando você consegue reproduzir o comportamento e analisar os erros, os resultados residuais deixam de ser um mistério. Eles se tornam uma lista de pendências priorizadas: o que falhou, onde, por quê e qual mudança resolve o problema.

A Motus oferece soluções para reembolso de veículos e mitigação de riscos que devem atender aos requisitos do IRS (Receita Federal dos EUA) e de outras agências reguladoras. Como a IA (Inteligência Artificial) aprimora a conformidade e a precisão nesses casos de uso corporativos?

A IA ajuda de duas maneiras: reduz o atrito manual e fortalece a capacidade de defesa.

Em relação ao reembolso, o valor não reside apenas na automação, mas também na consistência. A IA pode ajudar a classificar viagens, detectar anomalias e identificar informações faltantes mais cedo, o que reduz a necessidade de conciliação posterior. Ninguém quer que o reembolso se torne um projeto de arqueologia mensal. O benefício em termos de conformidade vem de uma melhor mensuração e documentação. Você comprova os resultados com um registro claro, em vez de depender de reconstruções posteriores.

Em termos de risco, a IA é útil porque verificações pontuais não são suficientes. As empresas desejam ter conhecimento contínuo do que mudou, do que parece suspeito e do que precisa de atenção. Os melhores sistemas de IA nesse aspecto não são drásticos. São silenciosos, consistentes e mensuráveis.

Liderar equipes remotas e multifuncionais que colaboram com as áreas Jurídica, de Segurança, Financeira e de Produto não é tarefa fácil. Quais foram os maiores desafios que você enfrentou para alinhar esses grupos em torno de iniciativas de dados e IA?

A parte mais difícil é que cada grupo é racional e otimiza diferentes tipos de risco.

A segurança se preocupa com a exposição. O departamento jurídico se preocupa com a capacidade de defesa. As finanças se preocupam com o custo e a previsibilidade. O produto se preocupa com a velocidade e o valor para o cliente. Os departamentos de dados e engenharia se preocupam com a viabilidade e a confiabilidade. Se você tratar essas questões como agendas concorrentes, o projeto vai estagnar.

A solução é uma linguagem comum e canais de comunicação claros. Alinhamos a decisão em questão, definimos os limites e concordamos sobre quais evidências são necessárias para que algo seja considerado "bom". Em seguida, criamos padrões para que a maior parte do trabalho possa prosseguir sem complicações.

Descobri que a clareza supera a persuasão. Quando as pessoas conseguem visualizar o mapa, o alinhamento se torna muito mais fácil.

Você impulsionou melhorias significativas de desempenho — como relatórios 60 vezes mais rápidos para mais de 350,000 motoristas e milhões em economia para os clientes. Como você decide quais projetos de IA/ML priorizar, considerando tanto o impacto tático quanto o valor estratégico?

Dou prioridade a projetos que passem por três testes.

Primeiro, eles precisam mudar uma decisão ou fluxo de trabalho real, não apenas produzir uma pontuação inteligente. Se o resultado não alterar o comportamento de forma consistente, é uma demonstração, não um produto.

Em segundo lugar, devem ser mensuráveis. Meus avós costumavam dizer: "Medir bem é meio caminho andado". Em ambientes regulamentados, é mais da metade. Se não conseguirmos definir o sucesso, os modos de erro e o monitoramento antecipadamente, significa que ainda não entendemos o trabalho.

Em terceiro lugar, devem ser defensáveis ​​sob escrutínio. Isso inclui a proveniência dos dados, os limites de acesso e a capacidade de explicar e reproduzir os resultados.

Quando um projeto passa nesses testes, ele tende a gerar ganhos táticos e um efeito cumulativo estratégico. Na Motus, é assim que entregamos melhorias transformadoras, incluindo relatórios significativamente mais rápidos em escala, menos exceções e automação que se traduz em economia real de tempo para o cliente.

Confiança e explicabilidade são cruciais para a adoção de IA empresarial. Como sua equipe garante que os modelos sejam interpretáveis ​​e confiáveis ​​para as partes interessadas em todas as unidades de negócios?

A confiança surge da clareza, da consistência e de um sistema que consegue se explicar sob pressão.

Projetamos sistemas com um botão de reprodução. As mesmas entradas, a mesma versão, a mesma saída, além de um registro das mudanças ocorridas ao longo do tempo. Também tornamos os resíduos visíveis. Cada erro é informação. Se você instrumentar os erros corretamente, poderá explicar o comportamento em linguagem simples e aprimorá-lo de forma disciplinada.

Quando uma decisão está sujeita a auditoria, priorizamos modelos mais simples e métricas robustas em detrimento da complexidade opaca. Na prática, isso significa definições de dados claras, avaliação que segmenta o desempenho em categorias relevantes, monitoramento de desvios e um processo de mudança documentado. As partes interessadas não precisam de todos os detalhes técnicos. Elas precisam ter confiança de que o sistema está sendo mensurado, delimitado e em constante aprimoramento.

Em ambientes corporativos, a explicabilidade não é uma questão de preferência filosófica. É um requisito para a adoção e torna-se crucial quando os clientes precisam se sair bem em auditorias futuras.

Desde pipelines de dados com certificação HIPAA até relatórios em conformidade com o IRS, a Motus prioriza IA segura e escalável. Quais boas práticas você recomendaria a outros líderes de IA que atuam em setores regulamentados?

Alguns princípios que se aplicam em qualquer lugar:

  • Trate a conformidade como a estrada principal. Construa estradas pavimentadas para que as equipes possam se deslocar com rapidez e segurança.
  • Defina os limites desde o início. Seja explícito sobre quais dados não podem sair, quais ferramentas são aprovadas e onde os modelos podem ser executados.
  • Automatize as evidências. Defina registros, linhagem e controle de versão como padrões, em vez de causar confusão durante uma auditoria.
  • Meça antes de dimensionar. Bem medido é meio caminho andado. Você não pode melhorar o que não consegue ver.
  • Operacionalize os resíduos. Transforme as falhas em uma taxonomia de erros e em uma lista de melhorias priorizadas.
  • Design voltado para a adoção. Os melhores modelos são em parte estatísticos, em parte parcerias e, principalmente, gestão de mudanças.

Se a sua governança estiver em um PDF, ela não será escalável. Se estiver no sistema, será.

Com a Motus na vanguarda das soluções de reembolso e gestão de riscos de veículos, como você vê a evolução da IA ​​nesse setor nos próximos 3 a 5 anos?

Prevejo duas grandes mudanças, que se reforçam mutuamente.

Primeiramente, o risco passará de verificações periódicas para sinais contínuos e de alta precisão. Atualmente, a maioria das organizações ainda toma conhecimento do risco do motorista tarde demais, seja após um incidente ou após uma avaliação pontual. A próxima onda consiste em sistemas que identificam o risco de forma mais precoce e precisa, utilizando padrões já presentes nas operações: mudanças na elegibilidade, lacunas na cobertura, padrões incomuns de quilometragem e inconsistências entre o comportamento esperado e o observado. O objetivo não é substituir o julgamento, mas sim fornecer às áreas de segurança, RH, finanças e operações um painel de alerta precoce mais claro, com menos alarmes falsos e melhor documentação sobre os motivos pelos quais algo foi sinalizado.

Em segundo lugar, o reembolso deixará de ser feito em papel e passará a ser processado automaticamente. As empresas ainda perdem uma quantidade surpreendente de tempo com submissões, correções, aprovações e ajustes posteriores. Nos próximos anos, espero mais automação em todo o ciclo de vida do reembolso: preenchimento automático do que pode ser preenchido automaticamente, detecção precoce de entradas ausentes ou inconsistentes, encaminhamento de exceções para o aprovador correto com o contexto adequado e redução da troca manual de informações. Se bem executado, isso torna o reembolso mais rápido e mais defensável, pois o histórico de evidências é gerado como parte do processo, em vez de ser reconstruído posteriormente.

O que torna isso empolgante é como eles convergem quando a base é sólida. Quando os limites são claros e os resultados são visíveis, você obtém um ciclo virtuoso: menos exceções, submissões mais claras, aprovações mais rápidas, melhores indicadores de risco e um registro mais transparente de como as decisões foram tomadas.

O futuro não é "IA em todo lugar". É IA incorporada nos momentos certos, com fortes mecanismos de medição e feedback que promovem melhorias contínuas.

Com base na sua trajetória nas áreas de direito, neurociência, estatística e IA aplicada, que conselhos você daria a jovens profissionais que aspiram a liderar a área de dados e IA em ambientes de negócios complexos?

Aprenda a construir sistemas, não apenas modelos. Ou, dito de outra forma, construa a estrada, monitore os erros e mantenha o mapa atualizado.

Aproxime-se das pessoas que vivenciam as consequências. Os operadores da linha de frente muitas vezes percebem os sinais antes mesmo dos seus dados. O feedback deles não é "anecdótico". Muitas vezes, trata-se do conjunto de informações que faltava.

Desenvolva familiaridade com medições e humildade em relação aos erros. Os resultados residuais são valiosos se você estiver disposto a ouvi-los. Em ambientes regulamentados, adote a disciplina do ônus da prova: seja capaz de explicar o que você construiu, por que se comportou da maneira que se comportou e o que você fará quando houver mudanças.

Por fim, lembre-se de que a adoção faz parte do trabalho. A gestão da mudança não é um mero complemento. É um requisito fundamental para que sua IA seja utilizada. Isso significa que não basta ter domínio em dados, modelos e algoritmos. É preciso trabalhar bem em todas as unidades de negócios, conquistar a confiança de todos e trilhar o caminho humano que transforma um bom modelo em uma capacidade real. Se você conseguir fazer isso, não estará apenas construindo modelos, mas também construindo confiança.

Obrigado pela ótima entrevista, os leitores que desejam saber mais devem visitar Motus.

Antoine é um líder visionário e sócio fundador da Unite.AI, movido por uma paixão inabalável por moldar e promover o futuro da IA ​​e da robótica. Um empreendedor em série, ele acredita que a IA será tão disruptiva para a sociedade quanto a eletricidade, e é frequentemente pego delirando sobre o potencial das tecnologias disruptivas e da AGI.

Como um futurista, ele se dedica a explorar como essas inovações moldarão nosso mundo. Além disso, ele é o fundador da Valores Mobiliários.io, uma plataforma focada em investir em tecnologias de ponta que estão redefinindo o futuro e remodelando setores inteiros.