Interviste
Pablo Ormachea, VP of Data at Motus – Interview Series

Pablo Ormachea, VP of Data at Motus, costruisce sistemi di intelligenza artificiale e analisi aziendali progettati per muoversi rapidamente pur essendo soggetti a scrutinio regolamentare e finanziario. Lui guida team completamente remoti e multifunzionali e si concentra su sistemi di decisione basati su prove che migliorano la fidelizzazione, ampliano i margini e forniscono un ritorno sugli investimenti misurabile. In Motus, lui ha ri-progettato l’analisi per oltre 350.000 conducenti, raggiungendo un reporting 60 volte più veloce con zero timeout, e ha distribuito sistemi di intelligenza artificiale e apprendimento automatico, tra cui rilevamento di anomalie e previsione di churn, che hanno risparmiato ai clienti milioni. Lui ha anche co-scritto il framework di governance dell’intelligenza artificiale di Motus, che consente un’esperimentazione sicura con LLM con impostazioni predefinite chiare, una forte tracciabilità e una logica aziendale coerente in tutto lo stack di dati.
Motus è una società di software per la gestione della forza lavoro e della mobilità che aiuta le organizzazioni a gestire il rimborso dei veicoli, il tracciamento dei chilometri e le operazioni della forza lavoro mobile. La sua piattaforma cloud automatizza i programmi di rimborso agevolati fiscali, fornisce report e informazioni in tempo reale e aiuta le imprese a ridurre i costi, migliorare la produttività e gestire la conformità per i dipendenti che guidano come parte del loro lavoro.
Hai costruito una carriera unica all’incrocio tra l’ingegneria dell’intelligenza artificiale, la strategia dei dati e la regolamentazione — da Harvard Law alla guida dei dati e dell’intelligenza artificiale in Motus. Quali esperienze chiave hanno plasmato il tuo approccio alla costruzione di sistemi di intelligenza artificiale che sono sia tecnicamente avanzati che conformi a rigidi quadri regolamentari?
Ho imparato presto a trattare la conformità come una costrizione di ingegneria, non come un ripensamento legale. Se costruisci l’autostrada, puoi guidare a velocità autostradale. Se fingi che sia una strada sterrata e acceleri comunque, non ti muovi più velocemente. Ti schianti solo prima.
Harvard Law mi ha aiutato in un modo sorprendente perché il sistema del common law è fondamentalmente un apprendimento basato su residui. Una regola incontra la realtà. I casi limite espongono dove fallisce. La dottrina si raffina.
Questo è lo stesso modello mentale che uso per l’intelligenza artificiale in produzione. Ogni residuo è un dono. Ti dice dove le tue ipotesi divergono dal mondo reale e ti dà un percorso concreto per stringere il sistema.
Quindi, ottimizzo due cose contemporaneamente: la velocità di consegna e l’onere della prova. L’obiettivo non è “innovazione versus conformità”. L’obiettivo è costruire sistemi che possano muoversi rapidamente e ancora rispondere chiaramente e ripetutamente, “Come lo sai?”
Hai co-scritto la politica di governance dell’intelligenza artificiale di Motus che ha semplificato le approvazioni mantenendo controlli forti. Quali principi hanno guidato te quando hai progettato quella politica e come bilanci la velocità dell’innovazione con la preparazione per l’audit?
Non abbiamo cercato di scrivere regole. Abbiamo disegnato una mappa. Quando l’adozione dell’intelligenza artificiale inizia, l’interesse proviene da ogni direzione e la velocità può trasformarsi in rumore o, peggio, in responsabilità. Quindi, il primo lavoro è la chiarezza: dove possono eseguire LLM e dove non possono, quali dati rimangono strettamente all’interno e quali tipi di esperimenti sono consentiti in un percorso sicuro.
L’equilibrio deriva dal rendere il percorso sicuro il percorso facile. La governance fallisce quando è un comitato. Funziona quando diventa impostazioni predefinite: strumenti approvati, confini di dati chiari, registrazione standard e un percorso di approvazione rapido per i casi limite. L’obiettivo è che i costruttori non debbano rinegoziare la sicurezza ogni volta che consegnano.
Quindi, la preparazione per l’audit diventa un sottoprodotto. Non ti affanni per assemblare le prove dopo il fatto perché il sistema genera le prove mentre funziona.
Hai detto che le pratiche di intelligenza artificiale dovrebbero soddisfare “anche lo scrutinio del livello dell’IRS”. Puoi condividere un esempio in cui le considerazioni regolamentari hanno influenzato direttamente una decisione tecnica di intelligenza artificiale o apprendimento automatico in Motus?
Nei flussi di lavoro regolamentati, la domanda non è solo “il modello è preciso?” È “puoi mostrare il tuo lavoro dopo?” Quella realtà plasma cosa significhi “buono” in Motus.
Cambia le scelte di progettazione. Per alcuni casi d’uso, ci incliniamo verso approcci che siano spiegabili, riproducibili ed facili da verificare. A volte significa famiglie di modelli più semplici. Spesso significa guardrail deterministici, funzionalità versionate e registrazione di input e output in un modo che supporti la riproduzione vera.
Un esempio concreto: quando abbiamo aggiornato parti della nostra logica di rimborso e del reporting, abbiamo spinto sull’attribuzione a livello di decisioni chiave. Volevamo che il sistema rispondesse, su richiesta, quale regola si attivò, quali dati utilizzò, quale versione stava eseguendo e cosa avrebbe cambiato l’esito. Ha reso i componenti di intelligenza artificiale più utilizzabili e ha reso l’intero flusso di lavoro più facile da difendere.
Il guadagno si accumula. Quando puoi riprodurre il comportamento e affettare gli errori, i residui smettono di essere misteriosi. Diventano un backlog prioritizzato: cosa è fallito, dove, perché e quale modifica chiude il divario.
Motus opera soluzioni per il rimborso dei veicoli e la mitigazione dei rischi che devono soddisfare i requisiti dell’IRS e altri requisiti regolamentari. Come l’intelligenza artificiale migliora la conformità e l’accuratezza in questi casi d’uso aziendali?
L’intelligenza artificiale aiuta in due modi: riduce l’attrito manuale e rafforza la difendibilità.
Per il rimborso, il valore non è solo l’automazione, è la coerenza. L’intelligenza artificiale può aiutare a classificare i viaggi, rilevare le anomalie e portare alla luce le informazioni mancanti prima, riducendo la riconciliazione a valle. Nessuno vuole che il rimborso diventi un progetto di archeologia mensile. Il beneficio della conformità deriva da una migliore misurazione e una migliore documentazione. Sostieni gli esiti con un registro chiaro piuttosto che affidarti alla ricostruzione dopo il fatto.
Per il rischio, l’intelligenza artificiale è utile perché i controlli puntuali non sono sufficienti. Le imprese vogliono una consapevolezza continua di cosa è cambiato, cosa sembra fuori posto e cosa richiede attenzione. I migliori sistemi di intelligenza artificiale qui non sono drammatici. Sono silenziosi, coerenti e misurabili.
Guidare team remoti e multifunzionali che collaborano con Legale, Sicurezza, Finanza e Prodotto non è un’impresa da poco. Quali sono le sfide più grandi che hai affrontato allineando questi gruppi intorno alle iniziative di dati e intelligenza artificiale?
La parte più difficile è che ogni gruppo è razionale e ottimizza per rischi diversi.
La Sicurezza si preoccupa dell’esposizione. Il Legale si preoccupa della difendibilità. La Finanza si preoccupa del costo e della prevedibilità. Il Prodotto si preoccupa della velocità e del valore per il cliente. I dati e l’ingegneria si preoccupano della fattibilità e dell’affidabilità. Se tratti questi come agenda in competizione, ti fermi.
La soluzione è un linguaggio condiviso e percorsi chiari. Ci allineiamo sulla decisione in gioco, definiamo i confini e concordiamo su cosa richiede la prova “buona”. Poi costruiamo impostazioni predefinite in modo che la maggior parte del lavoro possa muoversi senza cerimonie.
Ho trovato che la chiarezza batte la persuasione. Quando le persone possono vedere la mappa, l’allineamento diventa molto più facile.
Hai guidato miglioramenti di prestazioni importanti — come un reporting 60 volte più veloce per 350.000+ conducenti e milioni di risparmi per i clienti. Come decidi quali progetti di intelligenza artificiale e apprendimento automatico dare la priorità per l’impatto tattico e il valore strategico?
Dò la priorità ai progetti che superano tre test.
Primo, devono cambiare una decisione o un flusso di lavoro reale, non solo produrre un punteggio intelligente. Se l’output non cambia affidabilmente il comportamento, è una demo, non un prodotto.
Secondo, devono essere misurabili. I miei nonni dicevano “ben misurato è fatto a metà”. In ambienti regolamentati, è più della metà. Se non possiamo definire il successo, i modi di errore e il monitoraggio fin dall’inizio, significa che non capiamo ancora il lavoro.
Terzo, devono essere difendibili sotto scrutinio. Ciò include la provenienza dei dati, i confini di accesso e la capacità di spiegare e riprodurre gli esiti.
Quando un progetto supera questi test, tende a creare sia vittorie tattiche che un compounding strategico. In Motus, è così che abbiamo conseguito miglioramenti dirompenti, tra cui un reporting materialmente più veloce su larga scala, meno eccezioni e un’automazione che si traduce in risparmi di tempo reali per i clienti.
La fiducia e la spiegabilità sono critiche per l’adozione dell’intelligenza artificiale aziendale. Come il tuo team assicura che i modelli siano interpretabili e affidabili per gli stakeholder attraverso le unità aziendali?
La fiducia deriva dalla chiarezza, dalla coerenza e da un sistema che possa spiegarsi sotto pressione.
Progettiamo sistemi con un pulsante di riproduzione. Stessi input, stessa versione, stesso output, più una traccia di prove di cosa è cambiato nel tempo. Rendiamo anche i residui visibili. Ogni errore è informazione. Se strumenti gli errori in modo appropriato, puoi spiegare il comportamento in linguaggio chiaro e migliorarlo in modo disciplinato.
Quando una decisione ha un’esposizione di audit, ci incliniamo verso modelli più semplici più una forte misurazione rispetto alla complessità opaca. Praticamente, significa definizioni di dati chiare, valutazione che affetta le prestazioni per segmenti significativi, monitoraggio per deriva e un processo di modifica documentato. Gli stakeholder non hanno bisogno di ogni dettaglio tecnico. Hanno bisogno della fiducia che il sistema sia misurato, limitato e migliorato.
In ambienti aziendali, la spiegabilità non è una preferenza filosofica. È un requisito per l’adozione e conta quando i clienti devono resistere a future verifiche.
Dal percorso attraverso la legge, le neuroscienze, la statistica e l’intelligenza artificiale applicata, quali consigli daresti ai giovani professionisti che aspirano a guidare i dati e l’intelligenza artificiale in ambienti aziendali complessi?
Impara a costruire sistemi, non solo modelli. O, detto diversamente, costruire l’autostrada, strumentare i residui e tenere la mappa aggiornata.
Avvicinati alle persone che vivono l’esito. Gli operatori di prima linea spesso vedono segnali prima che i tuoi dati lo facciano. Il loro feedback non è “anecdotalico”. È spesso l’insieme di funzionalità mancanti.
Sviluppa la comfort con la misurazione e l’umiltà sull’errore. I residui sono doni se sei disposto ad ascoltare. In ambienti regolamentati, aggiungi la disciplina dell’onere della prova: essere in grado di spiegare cosa hai costruito, perché si è comportato in quel modo e cosa farai quando cambia.
Infine, ricorda che l’adozione è parte del lavoro. La gestione del cambiamento non è un add-on morbido. È un requisito fondamentale se vuoi che la tua intelligenza artificiale sia utilizzata. Ciò significa che non è sufficiente essere forti sui dati, i modelli e gli algoritmi. Devi lavorare bene attraverso le unità aziendali, guadagnare fiducia e navigare il percorso umano che trasforma un buon modello in una vera capacità. Se puoi farlo, non costruirai solo modelli, costruirai fiducia.
Grazie per la grande intervista, i lettori che desiderano saperne di più possono visitare Motus.












