Connect with us

Intervjuer

Pablo Ormachea, VP of Data at Motus – Intervju-serie

mm

Pablo Ormachea, VP of Data at Motus, bygger bedrifts AI- og analytisesystemer som er designet for å bevege seg raskt samtidig som de tåler regulativ og finansiell granskning. Han leder fullstendig remote, tverrfaglige team og fokuserer på bevisbaserte beslutningssystemer som forbedrer retensjon, utvider marginer og leverer målbare ROI. Hos Motus har han ombygget analytikken for over 350 000 sjåfører, oppnådd 60 × raskere rapportering med null tidsavbrudd, og levert AI/ML-systemer inkludert anomalioppsporing og churn-forecasting som har spart kunder millioner. Han har også medforfattet Motus’ AI-styringsramme, som muliggjør trygg LLM-eksperimentering med tydelige standarder, sterk granskning og konsekvent forretningslogikk på tvers av datastaken.

Motus er et selskap for arbeidsstyrings- og mobilitetsprogramvare som hjelper organisasjoner med å håndtere kjøretøysrefusjon, kilometerregistrering og mobile arbeidsstyrkeoperasjoner. Deres skyplattform automatiserer skattefordelaktige refusjonsprogrammer, leverer sanntidsrapportering og innsikt, og hjelper bedrifter med å redusere kostnader, forbedre produktivitet og håndtere overholdelse for ansatte som kjører som en del av jobben.

Du har bygget en unik karriere i skjæringspunktet mellom AI-ingeniørarbeid, datastrategi og regulering — fra Harvard Law til å lede data og AI hos Motus. Hva er de viktigste erfaringene som har formet din tilnærming til å bygge AI-systemer som er både teknisk avanserte og i samsvar med strenge regulative rammer?

Jeg lærte tidlig å behandle overholdelse som en ingeniørkonstraint, ikke en juridisk ettertanke. Hvis du bygger en motorvei, kan du kjøre i motorveihastighet. Hvis du later som om det er en grusvei og trykker på likevel, beveger du deg ikke raskere. Du krasjer bare tidligere.

Harvard Law hjalp på en overraskende måte fordi det vanlige rettssystemet i stor grad er basert på rest-tilpasning. En regel møter virkeligheten. Kanter åpner hvor den svikter. Doktrinen finjusterer.

Dette er den samme mentale modellen jeg bruker for AI i produksjon. Hver rest er en gave. Den forteller deg hvor dine antagelser avviker fra den virkelige verden, og den gir deg en konkretpost for å stramme systemet.

Så jeg optimaliserer for to ting samtidig: leveringshastighet og bevisbyrde. Målet er ikke «innovasjon versus overholdelse». Målet er å bygge systemer som kan bevege seg raskt og likevel kunne svare, tydelig og gjentakelig, «Hvordan vet du?»

Du har medforfattet Motus’ AI-styringspolitikk som strømlinjeformet godkjenninger samtidig som den opprettholdt sterke kontroller. Hva var de viktigste prinsippene som ledet deg da du designet denne politikken, og hvordan balanserer du innovasjonshastighet med granskningsklarhet?

Vi satte ikke ut å skrive regler. Vi tegnet et kart. Når AI-tilpasning starter, kommer interessen fra alle retninger, og hastighet kan bli til støy, eller verre, ansvar. Så det første jobben er klarhet: hvor LLM-er kan kjøre og hvor de ikke kan, hva data som forblir strengt inne, og hva slags eksperimenter som er tillatt i en trygg bane.

Balansen kommer fra å gjøre den trygge veien den enkle veien. Styring feiler når det er et utvalg. Det fungerer når det blir standarder: godkjente verktøy, tydelige data-grenser, standard logging og en rask godkjenningsbane for kanter.

Deretter blir granskningsklarhet en biprodukt. Du må ikke slåss for å samle bevis etter faktum fordi systemet genererer beviset mens det kjører.

Du har sagt at AI-praksis bør møte «selv IRS-nivå granskning». Kan du dele et eksempel hvor regulative overveielser direkte påvirket en teknisk AI- eller ML-beslutning hos Motus?

I regulerte arbeidsflyter er spørsmålet ikke bare «er modellen nøyaktig?» Det er «kan du vise ditt arbeid senere?» Den virkeligheten former hva «godt» ser ut som hos Motus.

Det endrer designvalg. For visse brukstilfeller, biaser vi mot tilnærminger som er forklarbare, gjentakelige og enkle å granske. Noen ganger betyr det enklere modellfamilier. Ofte betyr det deterministiske vegger, versjonerte funksjoner og logging av inndata og utdata på en måte som støtter sanntidig gjentakelse.

Et konkretp eksempel: da vi oppdaterte deler av vår refusjonslogikk og rapportering, presset vi hardt på sporing på nøkkelbeslutningspunkter. Vi ville at systemet skulle kunne svare, på forespørsel, hva regel som utløste, hva data det brukte, hva versjon som kjørte og hva som ville endre utfallet. Det gjorde AI-komponentene mer brukervennlige, og det gjorde hele arbeidsflyten enklere å forsvare.

Utbyttet akkumulerer. Når du kan gjenta oppførsel og skjære feil, blir rester ikke lenger mystiske. De blir en prioritetert backlogg: hva feilet, hvor, hvorfor og hva endring lukker gapet.

Motus opererer løsninger for kjøretøysrefusjon og risikomildring som må tilfredsstille IRS og andre regulative krav. Hvordan forbedrer AI overholdelse og nøyaktighet i disse bedriftssammenhengene?

AI hjelper på to måter: det reduserer manuell friksjon, og det styrker bevisstøtte.

På refusjon er verdien ikke bare automatisering, men konsistens. AI kan hjelpe med å klassifisere turer, oppdage anomalier og surface manglende informasjon tidligere, noe som reduserer nedstrømsrekonciliasjon. Ingen ønsker at refusjon skal bli en månedlig arkeologiprojekt. Overholdelsesfordelen kommer fra bedre måling og bedre dokumentasjon. Du støtter resultater med en tydelig rekord i stedet for å stole på etterfaktum-rekonstruksjon.

På risiko er AI nyttig fordi punkt-i-tid-kontroller ikke er nok. Bedrifter ønsker kontinuerlig bevissthet om hva som har endret seg, hva som ser ut av og hva som trenger oppmerksomhet. De beste AI-systemene her er ikke dramatiske. De er stille, konsistente og målbare.

Leder av remote, tverrfaglige team som samarbeider med Juridisk, Sikkerhet, Finans og Produkt er ingen liten bedrift. Hva er de største utfordringene du har møtt ved å samordne disse gruppene rundt data- og AI-initiativer?

Det hardeste er at hver gruppe er rasjonell, og de optimaliserer for forskjellige risiko.

Sikkerhet bekymrer seg om eksponering. Juridisk bekymrer seg om bevisstøtte. Finans bekymrer seg om kostnad og forutsigbarhet. Produkt bekymrer seg om hastighet og kundeverdi. Data og ingeniørarbeid bekymrer seg om gjennomførbarhet og pålitelighet. Hvis du behandler disse som konkurrerende agendaer, stagnerer du.

Løsningen er felles språk og tydelige filer. Vi samordner om beslutningen som står på spill, definerer grensene og enes om hva bevis «godt» krever. Deretter bygger vi standarder så most arbeid kan flyte uten seremoni.

Jeg har funnet at klarhet slår overtalelse. Når folk kan se kartet, blir samordning mye enklere.

Du har drevet frem betydelige ytelsesforbedringer — som 60 × raskere rapportering for 350 000+ sjåfører og millioner i kundebesparelser. Hvordan bestemmer du hvilke AI/ML-prosjekter å prioritere for både taktisk innvirkning og strategisk verdi?

Jeg prioriterer prosjekter som passerer tre tester.

Først, må de endre en virkelig beslutning eller arbeidsflyt, ikke bare produsere en smart score. Hvis utgangen ikke pålitelig endrer atferd, er det en demo, ikke et produkt.

Andre, må de være målbare. Mine besteforeldre sa «veldocumentert er halvveis gjort». I regulerte sammenhenger er det mer enn halvveis. Hvis vi ikke kan definere suksess, feilmoduser og overvåking på forhånd, betyr det at vi ikke forstår arbeidet ennå.

Tredje, må de være bevisstøttelige under granskning. Det inkluderer data-proveniens, tilgangsgrenser og evnen til å forklare og gjenta resultater.

Når et prosjekt passerer disse testene, tenderer det til å skape både taktiske seirer og strategisk akkumulering. Hos Motus er det hvordan vi har levert skritt-forbedringer, inkludert materielt raskere rapportering i skala, færre unntak og automatisering som oversetter til sanntidige kundebesparelser.

Tillit og forklarbarhet er kritiske for bedrifts AI-tilpasning. Hvordan sikrer ditt team at modellene er tolkbare og pålitelige for interessenter på tvers av forretningsenheter?

Tillit kommer fra klarhet, konsistens og et system som kan forklare seg selv under press.

Vi designer systemer med en gjentakelsesknap. Samme inndata, samme versjon, samme utgang, pluss en bevisstrekke av hva som har endret seg over tid. Vi gjør også rester synlige. Hver feil er informasjon. Hvis du instrumenterer feil ordentlig, kan du forklare atferd på en enkel måte og forbedre den på en disiplinert måte.

Når en beslutning har granskningseksponering, biaser vi mot enklere modeller pluss sterk måling over uklar kompleksitet. Praktisk betyr det tydelige data-definisjoner, evaluering som skjærer ytelse etter meningsfulle segmenter, overvåking for drift og en dokumentert endringsprosess. Interessenter trenger ikke hver enkelt teknisk detalj. De trenger tillit til at systemet er målt, begrenset og forbedret.

I bedriftssammenhenger er forklarbarhet ikke en filosofisk preferanse. Det er et krav for tilpasning, og det teller når kunder må motstå fremtidige granskninger.

Fra HIPAA-graderte data-pipelines til IRS-kompatible rapportering, Motus betoner trygg, skalerbar AI. Hva er de beste praksisene du ville anbefale til andre AI-ledere som arbeider i regulerte industrier?

Enkelte prinsipper som reiser godt:

  • Behandle overholdelse som motorveien. Bygg asfaltveier så team kan bevege seg raskt trygt.
  • Definer grenser tidlig. Vær eksplisitt om hva data som ikke kan forlate, hva verktøy som er godkjent og hvor modeller kan kjøre.
  • Automatiser bevis. Gjør logging, linje og versjonering standarder, ikke en kamp under en granskning.
  • Mål før du skalerer. Veldokumentert er halvveis gjort. Du kan ikke forbedre hva du ikke kan se.
  • Operasjonell rester. Gjør feil til en feil-taksonomi og en prioritetert forbedringsbacklogg.
  • Design for tilpasning. Store modeller er del statistikk, del partnerskap og stor del endringsledelse.

Hvis din styring bor i en PDF, vil den ikke skaleres. Hvis den bor i systemet, vil den.

Med Motus i fremtredende posisjon innen kjøretøysrefusjon og risikoløsninger, hvordan ser du på AI-utviklingen i dette området de neste 3–5 årene?

Jeg forventer to store endringer, og de forsterker hverandre.

Først, vil risiko flytte fra periodiske kontroller til kontinuerlige, beslutningsgraderte signaler. I dag lærer de fleste organisasjoner fortsatt om sjåfør-risiko for sent, enten etter en hendelse eller etter en punkt-i-tid-oversikt. Neste bølge er systemer som overflater risiko tidligere og mer presist, ved å bruke mønster allerede til stede i operasjoner: endringer i kvalifisering, dekningsgap, uvanlige kilometermønster og inkonsistenser mellom forventet og observert atferd. Målet er ikke å erstatte dømmekraft. Det er å gi sikkerhet, HR, finans og operasjoner en tydeligere tidlig-advarselspanel, med færre falske alarmer og bedre dokumentasjon for hvorfor noe ble flagget.

Andre, vil refusjon flytte fra papirarbeid til arbeidsflyt. Bedrifter taper fortsatt en overraskende mengde tid til innsendinger, korreksjoner, godkjenninger og etterfølgende renskning. Over de neste årene forventer jeg mer automatisering på hele refusjonslivssyklusen: forhåndsfylling av hva som kan fylles, fanging av manglende eller inkonsistente inndata tidlig, routing av unntak til riktig godkjenner med kontekst og redusere manuell tilbake-og-frem-adferd.

Hva gjør dette spennende er hvordan de konvergerer når grunnlaget er riktig. Når grenser er tydelige og rester er synlige, får du en akkumuleringsloop: færre unntak, renere innsendinger, raskere godkjenninger, bedre risikosignaler og en tydeligere rekord av hvordan beslutninger ble tatt.

Fremtiden er ikke «AI overalt». Det er AI innbygget på riktige øyeblikk, med sterk måling og tilbakemeldingsløkker som holder på å forbedre.

Basert på din reise gjennom jus, nevrovitenskap, statistikk og anvendt AI, hva råd ville du gi til unge fagfolk som aspirerer til å lede data og AI i komplekse bedriftsmiljøer?

Lær å bygge systemer, ikke bare modeller. Eller sagt på en annen måte, bygg motorveien, instrumenter feilene og hold kartet oppdatert.

Kom nær folk som lever utfallet. Førstelinjeoperatører ser ofte signaler før dine data gjør. Deres tilbakemelding er ikke «anekdotisk». Det er ofte den manglende funksjonssettet.

Utvikl komfort med måling og ydmykhet om feil. Rester er gaver hvis du er villig til å lytte. I regulerte miljøer, legg til disiplinen av bevisbyrde: vær i stand til å forklare hva du bygget, hvorfor det oppførte seg på den måten og hva du vil gjøre når det endrer seg.

Til slutt, husk at tilpasning er en del av arbeidet. Endringsledelse er ikke en myk tilføyelse. Det er et kjernekrav hvis du ønsker at din AI skal bli brukt. Det betyr at det ikke er nok å være sterk på data, modeller og algoritmer. Du må også arbeide godt på tvers av forretningsenheter, tjene tillit og navigere den menneskelige veien som omdanner en god modell til en virkelig evne. Hvis du kan gjøre det, vil du ikke bare bygge modeller, du vil bygge tillit.

Takk for det flotte intervjuet, lesere som ønsker å lære mer bør besøke Motus.

Antoine er en visjonær leder og grunnleggende partner i Unite.AI, drevet av en urokkelig lidenskap for å forme og fremme fremtiden for AI og robotikk. En seriegründer, han tror at AI vil være like disruptiv for samfunnet som elektrisitet, og blir ofte tatt i å tale om potensialet for disruptiv teknologi og AGI.
Som en futurist, er han dedikert til å utforske hvordan disse innovasjonene vil forme vår verden. I tillegg er han grunnleggeren av Securities.io, en plattform som fokuserer på å investere i banebrytende teknologier som omdefinerer fremtiden og omformer hele sektorer.