Intervjuer
Pablo Ormachea, VP of Data at Motus – Intervju-serie

Pablo Ormachea, VP of Data at Motus, bygger företags AI- och analytiks-system som är utformade för att röra sig snabbt samtidigt som de står emot regulatoriska och finansiella granskningar. Han leder fullt remote, tvärfunktionella team och fokuserar på bevisbaserade beslutsystem som förbättrar retention, utvidgar marginaler och levererar mätbara ROI. På Motus har han omkonstruerat analyser för mer än 350 000 förare, uppnått 60 × snabbare rapportering med noll tidsgränser och levererat AI/ML-system, inklusive avvikelseupptäckt och avhoppshantering som har sparat kunder miljontals. Han har också medförfattat Motus AI-styrningsramverk, som möjliggör säker LLM-experiment med tydliga standarder, stark granskningsbarhet och konsekvent affärslogik över hela datastacken.
Motus är ett företag som erbjuder arbetsstyrkehanterings- och mobilitetsprogramvara som hjälper organisationer att hantera fordonersättning, miljöregistrering och mobila arbetsstyrkeoperationer. Deras molnplattform automatiserar skatteförmånsprogram, levererar realtidsrapportering och insikter och hjälper företag att minska kostnader, förbättra produktivitet och hantera regelefterlevnad för anställda som kör som en del av sitt arbete.
Du har byggt en unik karriär vid skärningspunkten mellan AI-teknik, datastrategi och reglering — från Harvard Law till att leda data och AI på Motus. Vilka nyckelupplevelser har format din tillvägagångssätt för att bygga AI-system som är både tekniskt avancerade och förenliga med strikta regulatoriska ramverk?
Jag lärde mig tidigt att behandla regelefterlevnad som en teknisk begränsning, inte en juridisk eftertanke. Om du bygger motorvägen kan du köra i motorvägshastighet. Om du låtsas att det är en grusväg och gasar i alla fall, rör du dig inte snabbare. Du kraschar bara tidigare.
Harvard Law hjälpte på ett överraskande sätt eftersom den vanliga rättssystemet i grunden är restdriven inlärning. En regel möter verkligheten. Undantagsfall avslöjar var den misslyckas. Doktrinen förfinar.
Det är samma mental modell som jag använder för AI i produktion. Varje rest är en gåva. Den berättar för dig var dina antaganden avviker från den verkliga världen och ger dig en konkret väg att förbättra systemet.
Så jag optimerar för två saker samtidigt: leveranshastighet och bevisbörda. Målet är inte “innovation kontra regelefterlevnad”. Målet är att bygga system som kan röra sig snabbt och fortfarande kunna svara, tydligt och upprepat, “Hur vet du?”
Du medförfattade Motus AI-styrningspolicy som strömlinjeformade godkännanden samtidigt som den upprätthöll starka kontroller. Vilka principer styrde dig när du utformade den policyn, och hur balanserar du innovationshastighet med granskningsberedskap?
Vi satte inte ut att skriva regler. Vi ritade en karta. När AI-antagande börjar kommer intresse från alla håll, och hastighet kan förvandlas till brus eller, värre, ansvar. Så det första jobbet är tydlighet: var LLM kan köra och var den inte kan, vad data som hålls strikt inuti och vilka typer av experiment som tillåts i en säker fil.
Balansen kommer från att göra den säkra vägen den enkla vägen. Styrning misslyckas när det är en kommitté. Det fungerar när det blir standarder: godkända verktyg, tydliga datagränser, standardloggning och en snabb godkännandefil för undantagsfall. Målet är att byggare inte behöver förhandla om säkerhet varje gång de levererar.
Sedan blir granskningsberedskap en biprodukt. Du behöver inte skynda dig för att samla in bevis efter faktum, eftersom systemet genererar beviset när det körs.
Du har sagt att AI-praxis bör uppfylla “även IRS-nivås granskning”. Kan du dela ett exempel där regulatoriska överväganden direkt påverkade ett tekniskt AI- eller ML-beslut på Motus?
I reglerade arbetsflöden är frågan inte bara “är modellen exakt?” Det är “kan du visa ditt arbete senare?” Den verkligheten formar vad “bra” ser ut på Motus.
Det förändrar designval. För vissa användningsfall biaserar vi mot tillvägagångssätt som är förklarliga, uppspelbara och lätta att granska. Ibland betyder det enklare modellfamiljer. Ofta betyder det deterministiska skydd, versionerade funktioner och loggning av indata och utdata på ett sätt som stöder riktigt uppspel.
Ett konkret exempel: när vi uppdaterade delar av vår ersättningslogik och rapportering, tryckte vi hårt på spårbarhet vid viktiga beslutspunkter. Vi ville att systemet skulle kunna svara, på begäran, vilken regel som utlöstes, vilken data som användes, vilken version som kördes och vad som skulle ändra resultatet. Det gjorde AI-komponenterna mer användbara, och det gjorde hela arbetsflödet lättare att försvara.
Utbytet ackumuleras. När du kan uppspela beteende och skära fel, blir rester inte mystiska. De blir en prioriterad backlog: vad misslyckades, var, varför och vad ändrar gapet.
Motus opererar lösningar för fordonersättning och riskminskning som måste tillfredsställa IRS och andra regulatoriska krav. Hur förbättrar AI regelefterlevnad och exakthet i dessa företagsanvändningsfall?
AI hjälper på två sätt: det minskar manuell friktion, och det stärker försvarbarhet.
På ersättning är värdet inte bara automatisering, det är konsekvens. AI kan hjälpa till att klassificera resor, upptäcka avvikelser och yta saknad information tidigare, vilket minskar nedströms avstämning. Ingen vill att ersättning ska bli en månatlig arkeologiprojekt. Regelefterlevnadsfördelen kommer från bättre mätning och bättre dokumentation. Du stöder resultat med en tydlig post, snarare än att förlita sig på efterföljande rekonstruktion.
På risk är AI användbar eftersom punkt-i-tiden-kontroller inte räcker. Företag vill ha kontinuerlig medvetenhet om vad som ändrades, vad som ser avvikande ut och vad som behöver uppmärksamhet. De bästa AI-systemen här är inte dramatiska. De är tysta, konsekventa och mätbara.
Att leda remote, tvärfunktionella team som samarbetar med Juridik, Säkerhet, Finans och Produkt är ingen liten prestation. Vilka är de största utmaningarna du har mött när du försöker få dessa grupper att samarbeta kring data- och AI-initiativ?
Det svåraste är att varje grupp är rationell, och de optimerar för olika risker.
Säkerhet oroar sig för exponering. Juridik oroar sig för försvarbarhet. Finans oroar sig för kostnad och förutsägbarhet. Produkt oroar sig för hastighet och kundvärde. Data och teknik oroar sig för genomförbarhet och tillförlitlighet. Om du behandlar dem som konkurrerande agendor, stannar du.
Lösningen är ett gemensamt språk och tydliga filer. Vi samordnar beslutet som står på spel, definierar gränserna och kommer överens om vad bevis “bra” kräver. Sedan bygger vi standarder så att de flesta arbeten kan flyttas utan ceremoni.
Jag har funnit att tydlighet slår övertalning. När människor kan se kartan, blir samordning mycket enklare.
Du har drivit stora prestandaförbättringar — som 60 × snabbare rapportering för 350 000+ förare och miljontals i kundbesparingar. Hur bestämmer du vilka AI/ML-projekt att prioritera för både taktisk påverkan och strategiskt värde?
Jag prioriterar projekt som klarar tre tester.
Först måste de förändra ett verkligt beslut eller arbetsflöde, inte bara producera en smart poäng. Om utmatningen inte pålitligt ändrar beteende, är det en demo, inte en produkt.
Sedan måste de vara mätbara. Min farfar sa “väl mätt är halva gjort”. I reglerade miljöer är det mer än halva. Om vi inte kan definiera framgång, felmoder och övervakning i förväg, betyder det att vi inte förstår arbetet ännu.
Tredje, de måste vara försvarbara under granskning. Det inkluderar datahärkomst, åtkomstgränser och möjligheten att förklara och uppspela resultat.
När ett projekt klarar dessa tester, tenderar det att skapa både taktiska vinster och strategiska ackumuleringar. På Motus är det så vi har levererat stegvisa förbättringar, inklusive materiellt snabbare rapportering i skala, färre undantag och automatisering som översätter till verkliga kundtidbesparingar.
Förtroende och förklarbarhet är avgörande för företags AI-antagande. Hur ser till att ditt team att modellerna är tolkningsbara och pålitliga för intressenter över hela verksamheten?
Förtroende kommer från tydlighet, konsekvens och ett system som kan förklara sig under tryck.
Vi utformar system med en uppspelningsknapp. Samma indata, samma version, samma utmatning, plus en bevisgång av vad som ändrades över tiden. Vi gör också rester synliga. Varje miss är information. Om du instrumenterar fel ordentligt, kan du förklara beteende på vanligt språk och förbättra det på ett disciplinerat sätt.
När ett beslut har granskningsexponering, biaserar vi mot enklare modeller plus stark mätning över ogenomskinlig komplexitet. Praktiskt betyder det tydliga datadefinitioner, utvärdering som skär prestanda efter meningsfulla segment, övervakning för drift och en dokumenterad ändringsprocess. Intressenter behöver inte alla tekniska detaljer. De behöver förtroende för att systemet är mätt, begränsat och förbättrat.
I företagsmiljöer är förklarbarhet inte en filosofisk preferens. Det är ett krav för antagande, och det spelar roll när kunder behöver motstå framtida granskningar.
Från HIPAA-klassade datapipor till IRS-kompatibla rapporter, Motus betonar säker, skalbar AI. Vilka bästa praxis skulle du rekommendera till andra AI-ledare som arbetar i reglerade branscher?
Några principer som reser sig bra:
- Behandla regelefterlevnad som motorvägen. Bygg asfalterade vägar så att team kan flytta snabbt säkert.
- Definiera gränser tidigt. Var tydlig med vad data inte kan lämna, vilka verktyg som är godkända och var modeller kan köra.
- Automatisera bevis. Gör loggning, härkomst och versionering standarder, inte en skyndsamhet under en granskning.
- Mät innan du skalar. Väl mätt är halva gjort. Du kan inte förbättra vad du inte kan se.
- Operationalisera rester. Vänd missar till en felkategori och en prioriterad förbättringsbacklog.
- Utforma för antagande. Stora modeller är delstatistik, delpartnerskap och i huvudsak förändringshantering.
Om din styrning bor i en PDF, kommer den inte att skalas. Om den bor i systemet, kommer den att göra det.
Med Motus i framkant av fordonersättnings- och risklösningar, hur ser du att AI utvecklas i det här området under de kommande 3–5 åren?
Jag förväntar mig två stora skift, och de förstärker varandra.
Först kommer risk att flytta från periodiska kontroller till kontinuerliga, beslutsgraderade signaler. Idag lär sig de flesta organisationer fortfarande om förarrisk för sent, antingen efter en incident eller efter en punkt-i-tiden-granskning. Nästa våg är system som ytor risk tidigare och mer exakt, med hjälp av mönster som redan finns i operationer: ändringar i behörighet, täckningsgap, ovanliga miljömönster och inkonsekvenser mellan förväntat och observerat beteende. Målet är inte att ersätta omdöme. Det är att ge säkerhet, HR, finans och drift en tydligare tidig varningspanel, med färre falska larm och bättre dokumentation för varför något flaggades.
Sedan kommer ersättning att flytta från papper till arbetsflöde. Företag förlorar fortfarande en förvånansvärd mängd tid till inlämningar, korrigeringar, godkännanden och efterföljande rensning. Under de kommande åren förväntar jag mig mer automatisering över hela ersättningslivscykeln: förifyllning av vad som kan förifyllas, upptäckt av saknad eller inkonsekvent indata tidigt, routning av undantag till rätt godkännare med sammanhang och minskning av manuell växelverkan. När det görs bra, gör det ersättning snabbare och mer försvarbar, eftersom bevisgången genereras som en del av processen, snarare än återuppbyggs senare.
Vad som gör detta spännande är hur de konvergerar när grunden är rätt. När gränser är tydliga och rester är synliga, får du en ackumuleringsloop: färre undantag, renare inlämningar, snabbare godkännanden, bättre risksignalering och en tydligare post om hur beslut fattades.
Framtiden är inte “AI överallt”. Det är AI inbäddat vid rätt ögonblick, med stark mätning och återkopplingsloopar som håller förbättring.
Baserat på din resa genom lag, neurovetenskap, statistik och tillämpad AI, vad råd skulle du ge till unga proffs som strävar efter att leda data och AI i komplexa affärsmiljöer?
Lär dig att bygga system, inte bara modeller. Eller uttryckt annorlunda, bygg motorvägen, instrumentera missarna och håll kartan uppdaterad.
Kom nära de människor som lever av resultatet. Frontline-operatörer ser ofta signaler före din data. Deras feedback är inte “anekdotisk”. Det är ofta den saknade funktionssatsen.
Utveckla bekvämlighet med mätning och ödmjukhet om fel. Rester är gåvor om du är villig att lyssna. I reglerade miljöer, lägg till disciplinen för bevisbörda: vara i stånd att förklara vad du byggde, varför det betedde sig som det gjorde och vad du kommer att göra när det ändras.
Slutligen, kom ihåg att antagande är en del av arbetet. Förändringshantering är inte en mjuk tillägg. Det är ett kärnkrav om du vill att din AI ska användas. Det betyder att det inte räcker att vara stark på data, modeller och algoritmer. Du måste också arbeta bra över affärsenheter, tjäna förtroende och navigera den mänskliga vägen som förvandlar en bra modell till en riktig förmåga. Om du kan göra det, kommer du inte bara att bygga modeller, du kommer att bygga förtroende.
Tack för den underbara intervjun, läsare som vill lära sig mer bör besöka Motus.












