Seguici sui social

interviste

Pablo Ormachea, vicepresidente dei dati presso Motus – Serie di interviste

mm

Pablo Ormachea, Vicepresidente dei Dati presso Motus, sviluppa sistemi di intelligenza artificiale e analisi aziendali progettati per muoversi rapidamente e resistere al controllo normativo e finanziario. Guida team interfunzionali completamente remoti e si concentra su sistemi decisionali basati su prove che migliorano la fidelizzazione, ampliano i margini e forniscono un ROI misurabile. In Motus, ha riprogettato l'analisi per oltre 350,000 conducenti, ottenendo report 60 volte più rapidi e senza timeout, e ha implementato sistemi di intelligenza artificiale/apprendimento automatico (IA/ML), inclusi il rilevamento delle anomalie e la previsione del tasso di abbandono, che hanno fatto risparmiare milioni ai clienti. È stato inoltre coautore del framework di governance dell'IA di Motus, che consente una sperimentazione LLM sicura con impostazioni predefinite chiare, una solida verificabilità e una logica di business coerente nell'intero stack di dati.

Motus è un'azienda di software per la gestione della forza lavoro e la mobilità che aiuta le organizzazioni a gestire i rimborsi dei veicoli, il monitoraggio del chilometraggio e le operazioni della forza lavoro mobile. La sua piattaforma cloud automatizza i programmi di rimborso con agevolazioni fiscali, fornisce report e approfondimenti in tempo reale e aiuta le aziende a ridurre i costi, migliorare la produttività e gestire la conformità per i dipendenti che guidano nell'ambito del loro lavoro.

Hai costruito una carriera unica all'intersezione tra ingegneria dell'intelligenza artificiale, strategia dei dati e regolamentazione, da Harvard Law alla guida di dati e intelligenza artificiale presso Motus. Quali esperienze chiave hanno plasmato il tuo approccio alla creazione di sistemi di intelligenza artificiale tecnologicamente avanzati e conformi a rigorosi quadri normativi?

Ho imparato presto a considerare la conformità come un vincolo ingegneristico, non come un ripensamento legale. Se costruisci un'autostrada, puoi guidare a velocità autostradale. Se fingi che sia una strada sterrata e premi comunque l'acceleratore, non vai più veloce. Ti schianti solo prima.

La facoltà di giurisprudenza di Harvard ha contribuito in modo sorprendente perché il sistema di common law è fondamentalmente un apprendimento basato sui residui. Una regola incontra la realtà. I ​​casi limite evidenziano dove fallisce. La dottrina affina.

È lo stesso modello mentale che utilizzo per l'intelligenza artificiale in produzione. Ogni residuo è un dono. Ti dice dove le tue ipotesi divergono dal mondo reale e ti fornisce un percorso concreto per rafforzare il sistema.

Quindi, ottimizzo due aspetti contemporaneamente: velocità di spedizione e onere della prova. L'obiettivo non è "innovazione contro conformità". L'obiettivo è costruire sistemi in grado di muoversi rapidamente e rispondere comunque, in modo chiaro e ripetibile, alla domanda "Come lo sai?".

Lei è stato coautore della policy di governance dell'IA di Motus, che ha semplificato le approvazioni mantenendo al contempo controlli rigorosi. Quali principi l'hanno guidata nella progettazione di tale policy e come riesce a bilanciare la velocità dell'innovazione con la prontezza all'audit?

Non ci siamo prefissati di scrivere regole. Abbiamo tracciato una mappa. Quando inizia l'adozione dell'IA, l'interesse arriva da ogni direzione e la velocità può trasformarsi in rumore o, peggio, in responsabilità. Quindi, la prima cosa da fare è fare chiarezza: dove possono operare gli LLM e dove no, quali dati rimangono rigorosamente all'interno e quali tipi di esperimenti sono consentiti in una corsia sicura.

L'equilibrio deriva dal rendere la strada sicura la strada facile. La governance fallisce quando è gestita da un comitato. Funziona quando diventa predefinita: strumenti approvati, confini chiari per i dati, registrazione standard e una corsia di approvazione rapida per i casi limite. L'obiettivo è che i costruttori non debbano rinegoziare la sicurezza ogni volta che spediscono.

In questo modo, la preparazione all'audit diventa un sottoprodotto. Non è necessario affannarsi per raccogliere prove a posteriori, perché il sistema le genera man mano che viene eseguito.

Hai affermato che le pratiche di intelligenza artificiale dovrebbero essere sottoposte a "un controllo pari a quello dell'IRS". Puoi condividere un esempio in cui considerazioni normative hanno influenzato direttamente una decisione tecnica in materia di intelligenza artificiale o apprendimento automatico presso Motus?

Nei flussi di lavoro regolamentati, la domanda non è solo "il modello è accurato?", ma "puoi mostrare il tuo lavoro in seguito?". Questa realtà determina l'aspetto "buono" di Motus.

Cambia le scelte di progettazione. Per alcuni casi d'uso, orientiamo verso approcci spiegabili, riproducibili e facili da verificare. A volte questo significa famiglie di modelli più semplici. Spesso significa barriere deterministiche, funzionalità sottoposte a versioning e registrazione di input e output in un modo che supporti una reale riproducibilità.

Un esempio concreto: quando abbiamo aggiornato parti della nostra logica di rimborso e della reportistica, abbiamo puntato molto sulla tracciabilità nei punti decisionali chiave. Volevamo che il sistema rispondesse, su richiesta, a quale regola si attivava, quali dati utilizzava, quale versione era in esecuzione e cosa avrebbe modificato il risultato. Questo ha reso i componenti di intelligenza artificiale più utilizzabili e l'intero flusso di lavoro più facile da proteggere.

I vantaggi si moltiplicano. Quando è possibile riprodurre il comportamento e analizzare gli errori, i residui smettono di essere misteriosi. Diventano un arretrato prioritario: cosa è fallito, dove, perché e quale cambiamento colma il divario.

Motus offre soluzioni per il rimborso dei veicoli e la mitigazione dei rischi che devono soddisfare i requisiti dell'IRS e di altre normative. In che modo l'intelligenza artificiale migliora la conformità e l'accuratezza in questi casi d'uso aziendali?

L'intelligenza artificiale è utile in due modi: riduce l'attrito manuale e rafforza la difendibilità.

Per quanto riguarda il rimborso, il valore non risiede solo nell'automazione, ma anche nella coerenza. L'intelligenza artificiale può aiutare a classificare i viaggi, rilevare anomalie e far emergere informazioni mancanti in anticipo, riducendo la riconciliazione a valle. Nessuno vuole che il rimborso diventi un progetto archeologico mensile. Il vantaggio in termini di conformità deriva da una migliore misurazione e da una migliore documentazione. Si supportano i risultati con una documentazione chiara, anziché affidarsi a una ricostruzione a posteriori.

Per quanto riguarda il rischio, l'intelligenza artificiale è utile perché i controlli puntuali non sono sufficienti. Le aziende vogliono una consapevolezza continua di cosa è cambiato, cosa non funziona e cosa necessita di attenzione. I migliori sistemi di intelligenza artificiale in questo caso non sono drastici. Sono silenziosi, coerenti e misurabili.

Guidare team remoti e interfunzionali che collaborano con i dipartimenti Legale, Sicurezza, Finanza e Prodotto non è un'impresa da poco. Quali sono state le maggiori sfide che avete dovuto affrontare nell'allineare questi gruppi attorno a iniziative basate su dati e intelligenza artificiale?

La parte più difficile è che ogni gruppo è razionale e ottimizza i rischi in base a rischi diversi.

Preoccupazioni di sicurezza per l'esposizione. Preoccupazioni legali per la difendibilità. Preoccupazioni finanziarie per costi e prevedibilità. Preoccupazioni di prodotto per velocità e valore per il cliente. Dati e ingegneria per fattibilità e affidabilità. Se si trattano queste priorità come concorrenti, si va in stallo.

La soluzione è un linguaggio condiviso e corsie chiare. Ci allineiamo sulla decisione in gioco, definiamo i confini e concordiamo su quali prove siano necessarie per essere "buoni". Quindi creiamo impostazioni predefinite in modo che la maggior parte del lavoro possa procedere senza cerimonie.

Ho scoperto che la chiarezza batte la persuasione. Quando le persone riescono a vedere la mappa, l'allineamento diventa molto più facile.

Hai ottenuto importanti miglioramenti delle prestazioni, come un reporting 60 volte più veloce per oltre 350,000 conducenti e milioni di risparmi per i clienti. Come decidi a quali progetti di intelligenza artificiale/apprendimento automatico dare priorità, sia in termini di impatto tattico che di valore strategico?

Do priorità ai progetti che superano tre test.

Innanzitutto, devono modificare una decisione o un flusso di lavoro reale, non limitarsi a produrre un punteggio intelligente. Se l'output non modifica in modo affidabile il comportamento, si tratta di una demo, non di un prodotto.

In secondo luogo, devono essere misurabili. I miei nonni dicevano: "Chi misura bene è a metà dell'opera". In contesti regolamentati, è più della metà. Se non riusciamo a definire in anticipo il successo, le modalità di errore e il monitoraggio, significa che non abbiamo ancora capito il lavoro.

In terzo luogo, devono essere difendibili sotto esame. Ciò include la provenienza dei dati, i limiti di accesso e la capacità di spiegare e riprodurre i risultati.

Quando un progetto supera questi test, tende a generare sia vittorie tattiche che ricadute strategiche. In Motus, è così che abbiamo apportato miglioramenti radicali, tra cui una reportistica su larga scala notevolmente più rapida, meno eccezioni e un'automazione che si traduce in un reale risparmio di tempo per i clienti.

Fiducia e spiegabilità sono fondamentali per l'adozione dell'intelligenza artificiale in azienda. In che modo il tuo team garantisce che i modelli siano interpretabili e affidabili per gli stakeholder di tutte le unità aziendali?

La fiducia nasce dalla chiarezza, dalla coerenza e da un sistema in grado di spiegarsi sotto pressione.

Progettiamo sistemi con un pulsante di replay. Stessi input, stessa versione, stesso output, più una traccia di ciò che è cambiato nel tempo. Rendiamo anche visibili i residui. Ogni errore è informazione. Se si analizzano correttamente gli errori, è possibile spiegare il comportamento in un linguaggio semplice e migliorarlo in modo disciplinato.

Quando una decisione è soggetta a verifica, tendiamo a privilegiare modelli più semplici e misurazioni più accurate rispetto a una complessità opaca. In pratica, ciò significa definizioni chiare dei dati, una valutazione che suddivida le prestazioni in segmenti significativi, il monitoraggio delle derive e un processo di cambiamento documentato. Gli stakeholder non hanno bisogno di ogni dettaglio tecnico. Hanno bisogno di avere la certezza che il sistema sia misurato, delimitato e in fase di miglioramento.

In ambito aziendale, la spiegabilità non è una preferenza filosofica. È un requisito per l'adozione, ed è importante quando i clienti devono superare audit futuri.

Dai data pipeline conformi agli standard HIPAA alla reportistica conforme all'IRS, Motus punta su un'intelligenza artificiale sicura e scalabile. Quali best practice consiglieresti ad altri leader dell'intelligenza artificiale che lavorano in settori regolamentati?

Alcuni principi che viaggiano bene:

  • Considera la conformità come un'autostrada. Costruisci strade asfaltate in modo che i team possano muoversi velocemente e in sicurezza.
  • Definisci i limiti in anticipo. Sii esplicito su quali dati non possono essere rimossi, quali strumenti sono approvati e dove i modelli possono essere eseguiti.
  • Automatizza le prove. Rendi la registrazione, la discendenza e il controllo delle versioni predefiniti, non un pasticcio durante un audit.
  • Misura prima di ridimensionare. Chi misura bene è a metà dell'opera. Non puoi migliorare ciò che non vedi.
  • Rendere operativi i residui. Trasformare gli errori mancanti in una tassonomia e in un backlog di miglioramento prioritario.
  • Progettare per l'adozione. I modelli migliori sono in parte statistiche, in parte partnership e in gran parte gestione del cambiamento.

Se la tua governance risiede in un PDF, non sarà scalabile. Se risiede nel sistema, lo sarà.

Con Motus all'avanguardia nelle soluzioni di rimborso e gestione dei rischi dei veicoli, come prevede l'evoluzione dell'intelligenza artificiale in questo settore nei prossimi 3-5 anni?

Mi aspetto due grandi cambiamenti, che si rafforzeranno a vicenda.

In primo luogo, il rischio passerà dai controlli periodici a segnali continui, di livello decisionale. Oggi, la maggior parte delle organizzazioni viene a conoscenza del rischio dei conducenti ancora troppo tardi, dopo un incidente o dopo una revisione puntuale. La prossima ondata è quella di sistemi che evidenziano il rischio in anticipo e con maggiore precisione, utilizzando modelli già presenti nelle operazioni: variazioni di idoneità, lacune nella copertura, modelli di chilometraggio insoliti e incongruenze tra il comportamento previsto e quello osservato. L'obiettivo non è quello di sostituire il giudizio. È quello di fornire ai reparti sicurezza, risorse umane, finanza e operazioni un pannello di allerta precoce più chiaro, con meno falsi allarmi e una migliore documentazione del motivo per cui qualcosa è stato segnalato.

In secondo luogo, il rimborso passerà dalla burocrazia al flusso di lavoro. Le aziende perdono ancora una quantità sorprendente di tempo in invii, correzioni, approvazioni e pulizie post-hoc. Nei prossimi anni, mi aspetto una maggiore automazione nell'intero ciclo di vita del rimborso: precompilazione di ciò che può essere precompilato, individuazione tempestiva di input mancanti o incoerenti, inoltro delle eccezioni al corretto approvatore con contesto e riduzione degli scambi manuali. Se ben gestito, questo renderà il rimborso più rapido e difendibile perché la traccia delle prove viene generata come parte del processo anziché essere ricostruita in un secondo momento.

Ciò che rende tutto questo entusiasmante è la convergenza che si verifica quando le basi sono solide. Quando i confini sono chiari e i residui visibili, si ottiene un ciclo di capitalizzazione: meno eccezioni, invii più chiari, approvazioni più rapide, segnali di rischio migliori e una documentazione più chiara di come sono state prese le decisioni.

Il futuro non è "l'intelligenza artificiale ovunque". È l'intelligenza artificiale integrata nei momenti giusti, con solidi cicli di misurazione e feedback in continuo miglioramento.

Sulla base del tuo percorso attraverso il diritto, le neuroscienze, la statistica e l'intelligenza artificiale applicata, quali consigli daresti ai giovani professionisti che aspirano a gestire i dati e l'intelligenza artificiale in ambienti aziendali complessi?

Impara a costruire sistemi, non solo modelli. O, in altre parole, costruisci l'autostrada, strumenta gli errori e mantieni aggiornata la mappa.

Avvicinatevi alle persone che vivono il risultato. Gli operatori in prima linea spesso vedono i segnali prima dei vostri dati. Il loro feedback non è "aneddotico". Spesso è il set di funzionalità mancante.

Sviluppa la dimestichezza con la misurazione e l'umiltà verso gli errori. I residui sono doni se sei disposto ad ascoltare. In ambienti regolamentati, aggiungi la disciplina dell'onere della prova: sii in grado di spiegare cosa hai costruito, perché si è comportato in un certo modo e cosa farai quando cambierà.

Infine, ricorda che l'adozione è parte del lavoro. La gestione del cambiamento non è un'aggiunta facile. È un requisito fondamentale se vuoi che la tua intelligenza artificiale venga utilizzata. Ciò significa che non basta essere forti su dati, modelli e algoritmi. Devi lavorare bene con le diverse unità aziendali, guadagnarti la fiducia e percorrere il percorso umano che trasforma un buon modello in una capacità reale. Se ci riesci, non ti limiterai a costruire modelli, ma creerai fiducia.

Grazie per l'ottima intervista, i lettori che desiderano saperne di più dovrebbero visitare Motus.

Antoine è un leader visionario e socio fondatore di Unite.AI, spinto da una passione incrollabile per la definizione e la promozione del futuro dell'intelligenza artificiale e della robotica. Imprenditore seriale, ritiene che l'intelligenza artificiale sarà dirompente per la società quanto l'elettricità, e spesso viene colto a delirare sul potenziale delle tecnologie dirompenti e dell'AGI.

Come futurista, si dedica a esplorare come queste innovazioni plasmeranno il nostro mondo. Inoltre, è il fondatore di Titoli.io, una piattaforma focalizzata sugli investimenti in tecnologie all'avanguardia che stanno ridefinendo il futuro e rimodellando interi settori.