Connect with us

Entrevistas

Pablo Ormachea, VP de Datos en Motus – Serie de Entrevistas

mm

Pablo Ormachea, VP de Datos en Motus, construye sistemas de inteligencia artificial y analítica empresarial diseñados para moverse rápidamente mientras se mantienen firmes frente a la escrutinía regulatoria y financiera. Lidera equipos completamente remotos y multifuncionales, y se centra en sistemas de toma de decisiones basados en evidencia que mejoran la retención, amplían los márgenes y entregan un ROI medible. En Motus, reingenieró los análisis para más de 350,000 conductores, logrando informes 60 veces más rápidos con cero timeouts, y envió sistemas de IA/ML, incluyendo la detección de anomalías y la predicción de churn, que han ahorrado a los clientes millones. También coescribió el marco de gobernanza de IA de Motus, que permite la experimentación segura de LLM con valores predeterminados claros, una auditoría sólida y una lógica de negocio consistente en todo el stack de datos.

Motus es una empresa de software de gestión de la fuerza laboral y movilidad que ayuda a las organizaciones a gestionar la reimburssación de vehículos, el seguimiento de millas y las operaciones de la fuerza laboral móvil. Su plataforma en la nube automatiza los programas de reimburssación con ventajas fiscales, entrega informes y conocimientos en tiempo real, y ayuda a las empresas a reducir costos, mejorar la productividad y gestionar el cumplimiento para los empleados que conducen como parte de su trabajo.

Has construido una carrera única en la intersección de la ingeniería de IA, la estrategia de datos y la regulación — desde la Facultad de Derecho de Harvard hasta liderar los datos y la IA en Motus. ¿Qué experiencias clave dieron forma a tu enfoque para construir sistemas de IA que son técnicamente avanzados y cumplen con estrictos marcos regulatorios?

Aprendí temprano a tratar la conformidad como una restricción de ingeniería, no como un pensamiento legal posterior. Si construyes la carretera, puedes conducir a velocidades de carretera. Si finges que es un camino de tierra y aceleras de todos modos, no te mueves más rápido. Solo te estrellarás antes.

La Facultad de Derecho de Harvard me ayudó de una manera sorprendente porque el sistema de common law es básicamente un aprendizaje residual. Una regla conoce la realidad. Los casos límite exponen dónde falla. La doctrina refina.

Ese es el mismo modelo mental que uso para la IA en producción. Cada residual es un regalo. Te dice dónde tus suposiciones divergen del mundo real, y te da un camino concreto para ajustar el sistema.

Así que optimizo para dos cosas al mismo tiempo: la velocidad de envío y la carga de la prueba. El objetivo no es “innovación versus conformidad”. El objetivo es construir sistemas que puedan moverse rápidamente y aún así responder claramente y de manera repetible: “¿Cómo lo sabes?”

Coautor del política de gobernanza de IA de Motus que simplificó las aprobaciones mientras mantenía controles sólidos. ¿Qué principios guiaron tu diseño de esa política, y cómo equilibras la velocidad de innovación con la preparación para auditorías?

No nos propusimos escribir reglas. Dibujamos un mapa. Cuando comienza la adopción de IA, el interés proviene de todas las direcciones, y la velocidad puede convertirse en ruido, o peor, en responsabilidad. Entonces, el primer trabajo es la claridad: dónde pueden ejecutarse los LLM, dónde no, qué datos permanecen estrictamente dentro, y qué tipos de experimentos están permitidos en un carril seguro.

El equilibrio proviene de hacer que el camino seguro sea el camino fácil. La gobernanza falla cuando es un comité. Funciona cuando se convierte en valores predeterminados: herramientas aprobadas, límites de datos claros, registro estándar y un carril de aprobación rápido para casos límite. El objetivo es que los constructores no necesiten renegociar la seguridad cada vez que envían.

Luego, la preparación para auditorías se convierte en un subproducto. No te apresuras a reunir evidencia después de los hechos porque el sistema genera la evidencia a medida que se ejecuta.

Dijiste que las prácticas de IA deben cumplir con “incluso la escrutinía del IRS”. ¿Puedes compartir un ejemplo en el que las consideraciones regulatorias influyeron directamente en una decisión técnica de IA o ML en Motus?

En flujos de trabajo regulados, la pregunta no es solo “¿es el modelo preciso?” Es “¿puedes mostrar tu trabajo más tarde?” Esa realidad da forma a lo que “bueno” significa en Motus.

Cambia las decisiones de diseño. Para ciertos casos de uso, nos inclinamos hacia enfoques que son explicables, reproducibles y fáciles de auditar. A veces eso significa familias de modelos más simples. A menudo significa guardias deterministas, características versionadas y registro de entradas y salidas de una manera que admite una reproducción real.

Un ejemplo concreto: cuando actualizamos partes de nuestra lógica de reimburssación y informes, nos esforzamos por la trazabilidad en puntos de decisión clave. Queríamos que el sistema respondiera, a demanda, qué regla se activó, qué datos se utilizaron, qué versión se ejecutaba y qué cambiaría el resultado. Hizo que los componentes de IA fueran más utilizables, y hizo que todo el flujo de trabajo fuera más fácil de defender.

La recompensa se acumula. Cuando puedes reproducir el comportamiento y dividir los errores, los residuales dejan de ser misteriosos. Se convierten en una lista de tareas pendientes priorizada: qué falló, dónde, por qué y qué cambio cierra la brecha.

Motus opera soluciones para la reimburssación de vehículos y la mitigación de riesgos que deben satisfacer los requisitos regulatorios del IRS y otros. ¿Cómo mejora la IA la conformidad y la precisión en estos casos de uso empresariales?

La IA ayuda de dos maneras: reduce la fricción manual y fortalece la defensibilidad.

En la reimburssación, el valor no es solo la automatización, es la consistencia. La IA puede ayudar a clasificar viajes, detectar anomalías y surfacear información faltante más temprano, lo que reduce la reconciliación posterior. Nadie quiere que la reimburssación se convierta en un proyecto de arqueología mensual. El beneficio de la conformidad proviene de una mejor medición y mejor documentación. Apoyas los resultados con un registro claro en lugar de confiar en la reconstrucción posterior.

En el riesgo, la IA es útil porque las verificaciones puntuales no son suficientes. Las empresas quieren una conciencia continua de qué cambió, qué parece incorrecto y qué necesita atención. Los mejores sistemas de IA aquí no son dramáticos. Son silenciosos, consistentes y medibles.

Liderar equipos remotos y multifuncionales que colaboran con Legal, Seguridad, Finanzas y Producto no es una hazaña pequeña. ¿Cuáles son los mayores desafíos que has enfrentado al alinear estos grupos alrededor de las iniciativas de datos y IA?

La parte más difícil es que cada grupo es racional, y optimizan para diferentes riesgos.

La seguridad se preocupa por la exposición. La legalidad se preocupa por la defensibilidad. Las finanzas se preocupan por el costo y la previsibilidad. El producto se preocupa por la velocidad y el valor del cliente. Los datos y la ingeniería se preocupan por la factibilidad y la confiabilidad. Si tratas esas como agendas en competencia, te estancas.

La solución es un lenguaje compartido y carriles claros. Alineamos en la decisión en juego, definimos los límites y acordamos qué evidencia requiere “bueno”. Luego construimos valores predeterminados para que la mayoría del trabajo pueda moverse sin ceremonia.

He encontrado que la claridad supera la persuasión. Cuando la gente puede ver el mapa, el alineamiento se vuelve mucho más fácil.

Has impulsado mejoras significativas en el rendimiento — como informes 60 veces más rápidos para 350,000+ conductores y ahorros de millones para los clientes. ¿Cómo decides qué proyectos de IA/ML priorizar para el impacto táctico y el valor estratégico?

Priorizo proyectos que pasan tres pruebas.

Primero, deben cambiar una decisión o flujo de trabajo real, no solo producir una puntuación ingeniosa. Si la salida no cambia el comportamiento de manera confiable, es una demostración, no un producto.

Segundo, deben ser medibles. Mis abuelos solían decir “bien medido es la mitad hecho”. En entornos regulados, es más que la mitad. Si no podemos definir el éxito, los modos de error y el monitoreo de antemano, significa que no entendemos el trabajo aún.

Tercero, deben ser defendibles bajo escrutinio. Eso incluye la procedencia de los datos, los límites de acceso y la capacidad de explicar y reproducir los resultados.

Cuando un proyecto pasa esas pruebas, tiende a crear tanto victorias tácticas como un compounding estratégico. En Motus, es así como hemos entregado mejoras de cambio de paso, incluyendo informes significativamente más rápidos a escala, menos excepciones y automatización que se traduce en ahorros de tiempo real para los clientes.

La confianza y la explicabilidad son críticas para la adopción de IA empresarial. ¿Cómo asegura tu equipo que los modelos son interpretables y confiables para las partes interesadas en varias unidades de negocio?

La confianza proviene de la claridad, la consistencia y un sistema que pueda explicarse bajo presión.

Diseñamos sistemas con un botón de reproducción. Mismas entradas, misma versión, misma salida, más un rastro de evidencia de qué cambió con el tiempo. También hacemos que los residuales sean visibles. Cada error es información. Si instrumentas los errores adecuadamente, puedes explicar el comportamiento en lenguaje plano y mejorar de manera disciplinada.

Cuando una decisión tiene exposición a auditorías, nos inclinamos hacia modelos más simples con una medición sólida sobre complejidad opaca. Prácticamente, eso significa definiciones de datos claras, evaluación que divide el rendimiento por segmentos significativos, monitoreo de deriva y un proceso de cambio documentado. Las partes interesadas no necesitan cada detalle técnico. Necesitan confianza en que el sistema es medido, limitado y mejorado.

En entornos empresariales, la explicabilidad no es una preferencia filosófica. Es un requisito para la adopción, y importa cuando los clientes necesitan soportar futuras auditorías.

Desde tuberías de datos de grado HIPAA hasta informes compatibles con el IRS, Motus enfatiza la IA segura y escalable. ¿Qué mejores prácticas recomendarías a otros líderes de IA que trabajan en industrias reguladas?

Unos principios que viajan bien:

  • Trata la conformidad como la carretera. Construye carreteras pavimentadas para que los equipos puedan moverse rápido de manera segura.
  • Define límites temprano. Sé explícito sobre qué datos no pueden salir, qué herramientas están aprobadas y dónde pueden ejecutarse los modelos.
  • Automatiza la evidencia. Haz que el registro, la genealogía y la versionado sean valores predeterminados, no una lucha durante una auditoría.
  • Mide antes de escalar. Bien medido es la mitad hecho. No puedes mejorar lo que no puedes ver.
  • Operacionaliza los residuales. Convierte los errores en una taxonomía de errores y una lista de tareas pendientes priorizada.
  • Diseña para la adopción. Grandes modelos son parte estadísticas, parte asociación y en gran medida gestión del cambio.

Si tu gobernanza vive en un PDF, no escalará. Si vive en el sistema, lo hará.

Con Motus a la vanguardia de las soluciones de reimburssación de vehículos y riesgos, ¿cómo ves la evolución de la IA en este espacio en los próximos 3-5 años?

Espero dos cambios importantes, y se refuerzan mutuamente.

Primero, el riesgo se moverá de verificaciones periódicas a señales de decisión continuas. Hoy en día, la mayoría de las organizaciones todavía aprenden sobre el riesgo del conductor demasiado tarde, ya sea después de un incidente o después de una revisión puntual. La próxima ola es sistemas que surfacean el riesgo más temprano y con más precisión, utilizando patrones ya presentes en las operaciones: cambios en la elegibilidad, brechas de cobertura, patrones de millas inusuales e inconsistencias entre el comportamiento esperado y observado. El objetivo no es reemplazar el juicio. Es dar a la seguridad, RRHH, finanzas y operaciones un panel de alerta temprana más claro, con menos falsas alarmas y mejor documentación de por qué algo fue señalado.

Segundo, la reimburssación se moverá de la documentación al flujo de trabajo. Las empresas todavía pierden una cantidad sorprendente de tiempo en presentaciones, correcciones, aprobaciones y limpieza posterior. En los próximos años, espero más automatización en todo el ciclo de vida de la reimburssación: prellenado de lo que se puede prellenar, captura de entradas inconsistentes o faltantes temprano, enrutamiento de excepciones al aprobador correcto con contexto y reducción de la fricción manual de ida y vuelta. Bien hecho, esto hace que la reimburssación sea más rápida y defensible porque el rastro de evidencia se genera como parte del proceso en lugar de reconstruirlo más tarde.

Lo que hace que esto sea emocionante es cómo convergen cuando la base es correcta. Cuando los límites son claros y los residuales son visibles, obtienes un bucle de compounding: menos excepciones, presentaciones más limpias, aprobaciones más rápidas, señales de riesgo más claras y un registro más claro de cómo se tomaron las decisiones.

El futuro no es “IA en todas partes”. Es la IA incrustada en los momentos adecuados, con bucles de retroalimentación sólidos y medición que siguen mejorando.

Basado en tu viaje a través del derecho, la neurociencia, la estadística y la IA aplicada, ¿qué consejo darías a jóvenes profesionales que aspiran a liderar los datos y la IA en entornos de negocio complejos?

Aprende a construir sistemas, no solo modelos. O dicho de otra manera, construye la carretera, instrumenta los errores y mantén el mapa actualizado.

Acércate a las personas que viven el resultado. Los operadores de primera línea a menudo ven señales antes de que tus datos lo hagan. Su retroalimentación no es “anecdótica”. Es a menudo el conjunto de características faltante.

Desarrolla comodidad con la medición y la humildad sobre el error. Los residuales son regalos si estás dispuesto a escuchar. En entornos regulados, agrega la disciplina de la carga de la prueba: sé capaz de explicar qué construiste, por qué se comportó de la manera que lo hizo y qué harás cuando cambie.

Finalmente, recuerda que la adopción es parte del trabajo. La gestión del cambio no es un add-on suave. Es un requisito central si quieres que tu IA sea utilizada. Eso significa que no es suficiente ser fuerte en datos, modelos y algoritmos. Debes trabajar bien a través de las unidades de negocio, ganar confianza y navegar el camino humano que convierte un buen modelo en una capacidad real. Si puedes hacer eso, no solo construirás modelos, construirás confianza.

Gracias por la gran entrevista, los lectores que desean aprender más deben visitar Motus.

Antoine es un líder visionario y socio fundador de Unite.AI, impulsado por una pasión inquebrantable por dar forma y promover el futuro de la IA y la robótica. Un empresario serial, cree que la IA será tan disruptiva para la sociedad como la electricidad, y a menudo se le escucha hablando con entusiasmo sobre el potencial de las tecnologías disruptivas y la AGI. Como un futurista, está dedicado a explorar cómo estas innovaciones darán forma a nuestro mundo. Además, es el fundador de Securities.io, una plataforma enfocada en invertir en tecnologías de vanguardia que están redefiniendo el futuro y remodelando sectores enteros.