Connect with us

Interviews

Pablo Ormachea, Wiceprezes ds. Danych w Motus – Seria Wywiadów

mm

Pablo Ormachea, Wiceprezes ds. Danych w Motus, buduje korporacyjne systemy AI i analityki zaprojektowane do szybkiego działania, które jednocześnie wytrzymują regulacyjną i finansową kontrolę. Prowadzi w pełni zdalne, interdyscyplinarne zespoły i koncentruje się na systemach decyzyjnych opartych na dowodach, które poprawiają retencję, zwiększają marże i dostarczają mierzalny zwrot z inwestycji (ROI). W Motus przeprojektował analitykę dla ponad 350 000 kierowców, osiągając 60-krotnie szybsze raportowanie bez żadnych przerw czasowych, oraz wdrożył systemy AI/ML, w tym wykrywanie anomalii i prognozowanie odejść klientów, które zaoszczędziły klientom miliony. Był również współautorem ram zarządzania AI w Motus, umożliwiając bezpieczne eksperymentowanie z dużymi modelami językowymi (LLM) dzięki jasnym domyślnym ustawieniom, silnej możliwości audytu i spójnej logice biznesowej w całym stosie danych.

Motus to firma zajmująca się oprogramowaniem do zarządzania siłą roboczą i mobilnością, która pomaga organizacjom zarządzać zwrotami kosztów za pojazdy, śledzeniem przebiegu i operacjami mobilnej siły roboczej. Jej platforma w chmurze automatyzuje korzystne podatkowo programy zwrotów, dostarcza raporty i analizy w czasie rzeczywistym oraz pomaga przedsiębiorstwom obniżać koszty, poprawiać produktywność i zarządzać zgodnością dla pracowników, którzy prowadzą pojazdy w ramach swojej pracy.

Zbudowałeś unikalną karierę na styku inżynierii AI, strategii danych i regulacji — od Harvard Law School po kierowanie danymi i AI w Motus. Jakie kluczowe doświadczenia ukształtowały Twoje podejście do budowy systemów AI, które są zarówno zaawansowane technicznie, jak i zgodne z rygorystycznymi ramami regulacyjnymi?

Wcześnie nauczyłem się traktować zgodność jako ograniczenie inżynieryjne, a nie prawny dodatek. Jeśli zbudujesz autostradę, możesz jechać z prędkością autostradową. Jeśli udajesz, że to droga gruntowa, a i tak wciskasz gaz do dechy, nie poruszasz się szybciej. Po prostu wcześniej się rozbijesz.

Harvard Law pomógł w zaskakujący sposób, ponieważ system common law to w zasadzie uczenie oparte na resztach. Reguła spotyka się z rzeczywistością. Przypadki brzegowe pokazują, gdzie zawodzi. Doktryna jest udoskonalana.

To ten sam model mentalny, którego używam dla AI w produkcji. Każda reszta to prezent. Mówi ci, gdzie twoje założenia odbiegają od rzeczywistego świata, i daje konkretną ścieżkę do zaostrzenia systemu.

Optymalizuję więc jednocześnie pod kątem dwóch rzeczy: szybkości wdrażania i ciężaru dowodu. Celem nie jest „innowacja kontra zgodność”. Celem jest budowanie systemów, które mogą działać szybko i wciąż w jasny, powtarzalny sposób odpowiadać na pytanie: „Skąd wiesz?”.

Byłeś współautorem polityki zarządzania AI w Motus, która usprawniła procesy zatwierdzania, zachowując jednocześnie silną kontrolę. Jakimi zasadami kierowałeś się przy projektowaniu tej polityki i jak równoważysz szybkość innowacji z gotowością do audytu?

Nie zamierzaliśmy pisać zasad. Narysowaliśmy mapę. Kiedy zaczyna się adopcja AI, zainteresowanie napływa z każdej strony, a prędkość może zamienić się w szum lub, co gorsza, w odpowiedzialność. Dlatego pierwszym zadaniem jest jasność: gdzie LLM mogą działać, a gdzie nie, jakie dane pozostają ściśle wewnątrz i jakie rodzaje eksperymentów są dozwolone na bezpiecznym pasie.

Równowaga wynika z uczynienia bezpiecznej ścieżki łatwą ścieżką. Zarządzanie zawodzi, gdy jest komitetem. Działa, gdy staje się domyślnymi ustawieniami: zatwierdzone narzędzia, jasne granice danych, standardowe logowanie i szybka ścieżka zatwierdzania dla przypadków brzegowych. Celem jest to, aby twórcy nie musieli za każdym razem, gdy coś wdrażają, na nowo negocjować bezpieczeństwa.

Wtedy gotowość do audytu staje się produktem ubocznym. Nie szukasz na gwałt dowodów po fakcie, ponieważ system generuje dowody podczas działania.

Mówiłeś, że praktyki AI powinny spełniać „nawet poziom kontroli IRS”. Czy możesz podać przykład, w którym względy regulacyjne bezpośrednio wpłynęły na techniczną decyzję dotyczącą AI lub ML w Motus?

W regulowanych przepływach pracy pytanie brzmi nie tylko „czy model jest dokładny?”, ale „czy możesz później pokazać swoją pracę?”. Ta rzeczywistość kształtuje to, co w Motus wygląda na „dobre”.

Zmienia to wybory projektowe. W przypadku niektórych zastosowań preferujemy podejścia, które są wyjaśnialne, odtwarzalne i łatwe do audytu. Czasami oznacza to prostsze rodziny modeli. Często oznacza to deterministyczne zabezpieczenia, wersjonowane cechy oraz logowanie danych wejściowych i wyjściowych w sposób umożliwiający prawdziwe odtworzenie.

Konkretny przykład: gdy aktualizowaliśmy części naszej logiki zwrotów i raportowania, mocno naciskaliśmy na możliwość śledzenia w kluczowych punktach decyzyjnych. Chcieliśmy, aby system na żądanie odpowiadał, jaka reguła została uruchomiona, jakich danych użyła, jaka wersja działała i co zmieniłoby wynik. To sprawiło, że komponenty AI stały się bardziej użyteczne, a cały przepływ pracy łatwiejszy do obrony.

Korzyści się kumulują. Kiedy możesz odtworzyć zachowanie i przeanalizować błędy, reszty przestają być tajemnicze. Stają się uporządkowanym backlogiem: co zawiodło, gdzie, dlaczego i jaka zmiana zamyka lukę.

Motus obsługuje rozwiązania dotyczące zwrotów kosztów za pojazdy i ograniczania ryzyka, które muszą spełniać wymagania IRS i innych regulacji. W jaki sposób AI poprawia zgodność i dokładność w tych korporacyjnych przypadkach użycia?

AI pomaga na dwa sposoby: redukuje manualne tarcia i wzmacnia możliwość obrony.

W przypadku zwrotów kosztów wartość to nie tylko automatyzacja, ale także spójność. AI może pomóc w klasyfikacji przejazdów, wykrywaniu anomalii i wcześniejszym wskazywaniu brakujących informacji, co redukuje późniejsze uzgadnianie. Nikt nie chce, aby zwroty kosztów stały się miesięcznym projektem archeologicznym. Korzyść dla zgodności płynie z lepszego pomiaru i lepszej dokumentacji. Wspierasz wyniki jasnym zapisem, zamiast polegać na rekonstrukcji post factum.

W przypadku ryzyka AI jest przydatne, ponieważ jednorazowe kontrole nie wystarczają. Przedsiębiorstwa chcą ciągłej świadomości tego, co się zmieniło, co wygląda podejrzanie i na co trzeba zwrócić uwagę. Najlepsze systemy AI w tym obszarze nie są spektakularne. Są ciche, konsekwentne i mierzalne.

Prowadzenie zdalnych, interdyscyplinarnych zespołów współpracujących z działami Prawnym, Bezpieczeństwa, Finansów i Produktu to nie lada wyczyn. Z jakimi największymi wyzwaniami spotkałeś się, dostosowując te grupy wokół inicjatyw związanych z danymi i AI?

Najtrudniejsze jest to, że każda grupa jest racjonalna i optymalizuje pod kątem różnych ryzyk.

Bezpieczeństwo martwi się o ekspozycję. Prawnicy martwią się o możliwość obrony. Finanse martwią się o koszt i przewidywalność. Produkt martwi się o szybkość i wartość dla klienta. Dane i inżynieria martwią się o wykonalność i niezawodność. Jeśli potraktujesz to jako konkurencyjne agendy, utkniesz w miejscu.

Naprawą jest wspólny język i jasne pasy. Uzgadniamy decyzję, która jest stawką, definiujemy granice i zgadzamy się, jakich dowodów wymaga „dobry” wynik. Następnie budujemy domyślne ustawienia, aby większość pracy mogła się toczyć bez ceremonii.

Odkryłem, że jasność pokonuje perswazję. Kiedy ludzie widzą mapę, uzgodnienie staje się znacznie łatwiejsze.

Doprowadziłeś do znaczących popraw wydajności — takich jak 60-krotnie szybsze raportowanie dla ponad 350 000 kierowców i miliony oszczędności dla klientów. Jak decydujesz, które projekty AI/ML nadać priorytet, biorąc pod uwagę zarówno taktyczny wpływ, jak i wartość strategiczną?

Nadaję priorytet projektom, które przechodzą trzy testy.

Po pierwsze, muszą zmienić rzeczywistą decyzję lub przepływ pracy, a nie tylko wyprodukować sprytny wynik. Jeśli wynik nie zmienia wiarygodnie zachowania, to jest demo, a nie produkt.

Po drugie, muszą być mierzalne. Moi dziadkowie mawiali: „dobrze zmierzone to w połowie zrobione”. W regulowanych środowiskach to więcej niż połowa. Jeśli nie możemy zdefiniować z góry sukcesu, trybów błędów i monitorowania, oznacza to, że jeszcze nie rozumiemy pracy.

Po trzecie, muszą być możliwe do obrony pod kontrolą. Obejmuje to pochodzenie danych, granice dostępu oraz możliwość wyjaśnienia i odtworzenia wyników.

Kiedy projekt przechodzi te testy, zwykle przynosi zarówno taktyczne zwycięstwa, jak i strategiczne efekty kumulacyjne. W Motus w ten sposób dostarczyliśmy przełomowe ulepszenia, w tym znacząco szybsze raportowanie na skalę, mniej wyjątków oraz automatyzację, która przekłada się na realne oszczędności czasu klientów.

Zaufanie i możliwość wyjaśnienia są kluczowe dla adopcji AI w przedsiębiorstwach. W jaki sposób Twój zespół zapewnia, że modele są interpretowalne i godne zaufania dla interesariuszy z różnych jednostek biznesowych?

Zaufanie pochodzi z jasności, konsekwencji i systemu, który potrafi wyjaśnić się pod presją.

Projektujemy systemy z przyciskiem odtwarzania. Te same dane wejściowe, ta sama wersja, ten sam wynik, plus ślad dowodowy pokazujący, co zmieniło się w czasie. Uczyniamy również reszty widocznymi. Każdy błąd to informacja. Jeśli odpowiednio zinstrumentujesz błędy, możesz wyjaśnić zachowanie prostym językiem i poprawić je w zdyscyplinowany sposób.

Gdy decyzja wiąże się z ekspozycją na audyt, preferujemy prostsze modele plus silny pomiar zamiast nieprzejrzystej złożoności. W praktyce oznacza to jasne definicje danych, ewaluację dzielącą wydajność na znaczące segmenty, monitorowanie dryfu i udokumentowany proces zmian. Interesariusze nie potrzebują każdego technicznego szczegółu. Potrzebują pewności, że system jest mierzony, ograniczony i się poprawia.

W środowiskach korporacyjnych możliwość wyjaśnienia nie jest filozoficzną preferencją. To wymóg adopcji i ma znaczenie, gdy klienci muszą wytrzymać przyszłe audyty.

Od rurociągów danych na poziomie HIPAA po raportowanie zgodne z IRS, Motus kładzie nacisk na bezpieczne, skalowalne AI. Jakie najlepsze praktyki poleciłbyś innym liderom AI pracującym w regulowanych branżach?

Kilka zasad, które dobrze się sprawdzają:

  • Traktuj zgodność jak autostradę. Buduj utwardzone drogi, aby zespoły mogły poruszać się szybko i bezpiecznie.
  • Zdefiniuj granice wcześnie. Bądź wyraźny co do tego, jakie dane nie mogą opuszczać organizacji, jakie narzędzia są zatwierdzone i gdzie modele mogą działać.
  • Automatyzuj dowody. Uczyń logowanie, śledzenie pochodzenia i wersjonowanie domyślnymi ustawieniami, a nie gorączkowym działaniem podczas audytu.
  • Mierz, zanim zaczniesz skalować. Dobrze zmierzone to w połowie zrobione. Nie możesz poprawić tego, czego nie widzisz.
  • Uruchom reszty operacyjnie. Przekształć błędy w taksonomię błędów i uporządkowany backlog ulepszeń.
  • Projektuj pod kątem adopcji. Wspaniałe modele to w części statystyki, w części partnerstwo, a w dużej mierze zarządzanie zmianą.

Jeśli Twoje zarządzanie żyje w pliku PDF, nie będzie skalowalne. Jeśli żyje w systemie, będzie.

Biorąc pod uwagę, że Motus jest na czele rozwiązań dotyczących zwrotów kosztów za pojazdy i zarządzania ryzykiem, jak Twoim zdaniem AI będzie ewoluować w tej przestrzeni w ciągu najbliższych 3–5 lat?

Oczekuję dwóch dużych przesunięć i wzajemnie się one wzmacniają.

Po pierwsze, ryzyko przejdzie z okresowych kontroli na ciągłe sygnały nadające się do

//www.futurist.ai">futurysta, poświęca się badaniu, jak te innowacje ukształtują nasz świat. Ponadto jest założycielem Securities.io, platformy skupionej na inwestowaniu w zaawansowane technologie, które na nowo definiują przyszłość i przekształcają całe sektory.