Vernetzen Sie sich mit uns

Interviews

Pablo Ormachea, Vizepräsident für Daten bei Motus – Interviewreihe

mm

Pablo Ormachea[Name], VP of Data bei Motus, entwickelt KI- und Analysesysteme für Unternehmen, die schnell reagieren und gleichzeitig regulatorischen und finanziellen Anforderungen standhalten. Er leitet vollständig remote arbeitende, funktionsübergreifende Teams und konzentriert sich auf datenbasierte Entscheidungssysteme, die die Kundenbindung verbessern, die Margen steigern und einen messbaren ROI erzielen. Bei Motus hat er die Analysen für über 350,000 Fahrer grundlegend überarbeitet und so eine 60-mal schnellere Berichterstellung ohne Timeouts erreicht. Zudem hat er KI/ML-Systeme, darunter Anomalieerkennung und Abwanderungsprognosen, implementiert, die Kunden Millionen eingespart haben. Er war außerdem Mitautor des KI-Governance-Frameworks von Motus, das sichere LLM-Experimente mit klaren Standardeinstellungen, hoher Auditierbarkeit und konsistenter Geschäftslogik über die gesamte Datenarchitektur hinweg ermöglicht.

Motus ist ein Softwareunternehmen für Workforce-Management und Mobilität, das Organisationen bei der Verwaltung von Fahrzeugkostenerstattungen, Kilometererfassung und dem Betrieb mobiler Mitarbeiter unterstützt. Die Cloud-Plattform automatisiert steuerbegünstigte Erstattungsprogramme, liefert Echtzeitberichte und -analysen und hilft Unternehmen, Kosten zu senken, die Produktivität zu steigern und die Einhaltung gesetzlicher Bestimmungen für Mitarbeiter sicherzustellen, die im Rahmen ihrer Tätigkeit fahren.

Sie haben eine einzigartige Karriere an der Schnittstelle von KI-Entwicklung, Datenstrategie und Regulierung aufgebaut – von der Harvard Law School bis hin zur Leitung des Bereichs Daten und KI bei Motus. Welche Schlüsselerfahrungen haben Ihren Ansatz beim Aufbau von KI-Systemen geprägt, die sowohl technisch fortschrittlich als auch mit strengen regulatorischen Rahmenbedingungen konform sind?

Ich habe früh gelernt, die Einhaltung von Vorschriften als technische Notwendigkeit zu betrachten, nicht als nachträgliche rechtliche Überlegung. Wenn man eine Autobahn baut, kann man auch mit Autobahngeschwindigkeit fahren. Wenn man so tut, als wäre es eine unbefestigte Straße und trotzdem Vollgas gibt, kommt man nicht schneller voran. Man baut nur früher einen Unfall.

Harvard Law war in überraschender Weise hilfreich, da das Common Law-System im Grunde auf fallbasiertem Lernen beruht. Eine Regel trifft auf die Realität. Grenzfälle decken ihre Schwächen auf. Die Doktrin wird verfeinert.

Das ist dasselbe Denkmodell, das ich für KI im Produktiveinsatz verwende. Jedes Residuum ist ein Geschenk. Es zeigt, wo die Annahmen von der Realität abweichen, und liefert einen konkreten Weg zur Verbesserung des Systems.

Ich optimiere also zwei Dinge gleichzeitig: die Liefergeschwindigkeit und den Nachweisaufwand. Das Ziel ist nicht „Innovation versus Compliance“. Das Ziel ist der Aufbau von Systemen, die schnell reagieren können und dennoch klar und reproduzierbar die Frage beantworten: „Woher wissen Sie das?“

Sie haben die KI-Governance-Richtlinie von Motus mitverfasst, die Genehmigungsverfahren vereinfachte und gleichzeitig strenge Kontrollen aufrechterhielt. Welche Prinzipien leiteten Sie bei der Gestaltung dieser Richtlinie, und wie bringen Sie Innovationsgeschwindigkeit und Auditbereitschaft in Einklang?

Wir wollten keine Regeln aufstellen, sondern eine Art Karte zeichnen. Mit Beginn der KI-Einführung kommt das Interesse aus allen Richtungen, und die rasante Entwicklung kann schnell in Unübersichtlichkeit oder, schlimmer noch, in Haftungsrisiken umschlagen. Daher ist Klarheit unerlässlich: Wo können LLMs eingesetzt werden und wo nicht, welche Daten müssen unbedingt intern bleiben und welche Experimente sind im sicheren Rahmen erlaubt?

Die Balance entsteht dadurch, dass der sichere Weg zum einfachsten wird. Governance scheitert, wenn sie von einem Gremium getragen wird. Sie funktioniert, wenn sie zur Norm wird: genehmigte Tools, klare Datengrenzen, standardisierte Protokollierung und ein beschleunigter Genehmigungsprozess für Sonderfälle. Ziel ist es, dass Entwickler die Sicherheit nicht bei jeder Veröffentlichung neu verhandeln müssen.

Die Auditbereitschaft wird dadurch zu einem Nebenprodukt. Sie müssen nicht mehr im Nachhinein mühsam Beweise zusammentragen, da das System diese während des Betriebs generiert.

Sie haben gesagt, dass KI-Praktiken „sogar einer Prüfung auf IRS-Niveau standhalten“ sollten. Können Sie ein Beispiel nennen, bei dem regulatorische Erwägungen eine technische KI- oder ML-Entscheidung bei Motus direkt beeinflusst haben?

In regulierten Arbeitsabläufen geht es nicht nur um die Frage „Ist das Modell korrekt?“, sondern auch um die Frage „Kann man seine Arbeit später nachweisen?“. Diese Realität prägt bei Motus, was „gut“ bedeutet.

Das verändert die Designentscheidungen. Für bestimmte Anwendungsfälle bevorzugen wir Ansätze, die erklärbar, reproduzierbar und leicht überprüfbar sind. Manchmal bedeutet das einfachere Modellfamilien. Oftmals bedeutet es deterministische Schutzmechanismen, versionierte Funktionen und die Protokollierung von Ein- und Ausgaben, die eine echte Reproduzierbarkeit ermöglicht.

Ein konkretes Beispiel: Bei der Aktualisierung unserer Abrechnungslogik und Berichtsfunktion legten wir großen Wert auf die Nachvollziehbarkeit an wichtigen Entscheidungspunkten. Wir wollten, dass das System auf Anfrage Auskunft darüber gibt, welche Regel ausgelöst wurde, welche Daten verwendet wurden, welche Version aktiv war und was das Ergebnis beeinflusst. Dadurch wurden die KI-Komponenten benutzerfreundlicher und der gesamte Workflow besser absicherbar.

Der Nutzen ist enorm. Wenn sich Verhalten nachvollziehen und Fehler analysieren lassen, werden die Ergebnisse nicht länger unergründlich. Sie bilden einen priorisierten Aufgabenbereich: Was ist fehlgeschlagen, wo, warum und welche Änderung behebt das Problem?

Motus bietet Lösungen für die Fahrzeugkostenabrechnung und Risikominimierung an, die den Anforderungen der US-Steuerbehörde (IRS) und anderer Aufsichtsbehörden entsprechen müssen. Wie kann KI die Compliance und Genauigkeit in diesen Anwendungsfällen für Unternehmen verbessern?

KI hilft auf zweierlei Weise: Sie reduziert manuelle Reibungsverluste und stärkt die Verteidigungsfähigkeit.

Bei der Kostenerstattung liegt der Wert nicht nur in der Automatisierung, sondern auch in der Konsistenz. KI kann helfen, Reisen zu klassifizieren, Anomalien zu erkennen und fehlende Informationen frühzeitig aufzudecken, was den nachträglichen Abstimmungsaufwand reduziert. Niemand möchte, dass die Kostenerstattung zu einem monatlichen Archäologieprojekt wird. Der Vorteil hinsichtlich der Compliance ergibt sich aus besserer Messung und Dokumentation. Sie belegen Ergebnisse mit einer klaren Dokumentation, anstatt sich auf nachträgliche Rekonstruktionen zu verlassen.

Beim Risikomanagement ist KI hilfreich, da punktuelle Überprüfungen nicht ausreichen. Unternehmen benötigen einen kontinuierlichen Überblick darüber, was sich geändert hat, was auffällig ist und wo Handlungsbedarf besteht. Die besten KI-Systeme in diesem Bereich sind nicht spektakulär. Sie arbeiten unauffällig, zuverlässig und messbar.

Die Leitung von dezentralen, funktionsübergreifenden Teams, die mit den Bereichen Recht, Sicherheit, Finanzen und Produktentwicklung zusammenarbeiten, ist keine leichte Aufgabe. Was waren die größten Herausforderungen, denen Sie sich bei der Abstimmung dieser Gruppen im Hinblick auf Daten- und KI-Initiativen stellen mussten?

Die größte Schwierigkeit besteht darin, dass jede Gruppe rational handelt und auf unterschiedliche Risiken optimiert.

Sicherheitsbedenken hinsichtlich der Offenlegung von Informationen. Rechtliche Bedenken hinsichtlich der Verteidigungsfähigkeit. Finanzbedenken hinsichtlich Kosten und Planbarkeit. Produktbezogene Bedenken hinsichtlich Geschwindigkeit und Kundennutzen. Daten- und Entwicklungsbedenken hinsichtlich Machbarkeit und Zuverlässigkeit. Wenn Sie diese als konkurrierende Ziele behandeln, geraten Sie ins Stocken.

Die Lösung liegt in einer gemeinsamen Sprache und klaren Zuständigkeiten. Wir einigen uns auf die anstehende Entscheidung, definieren die Grenzen und einigen uns darauf, welche Nachweise für ein „gutes“ Ergebnis erforderlich sind. Anschließend legen wir Standardeinstellungen fest, sodass die meisten Arbeitsschritte reibungslos ablaufen können.

Ich habe festgestellt, dass Klarheit besser ist als Überredung. Wenn die Menschen die Zusammenhänge verstehen, wird eine Einigung viel einfacher.

Sie haben maßgebliche Leistungsverbesserungen erzielt – beispielsweise eine 60-mal schnellere Berichtserstellung für über 350,000 Fahrer und Einsparungen in Millionenhöhe für unsere Kunden. Wie entscheiden Sie, welche KI/ML-Projekte Sie hinsichtlich ihrer taktischen Wirkung und ihres strategischen Werts priorisieren?

Ich priorisiere Projekte, die drei Tests bestehen.

Zunächst müssen sie eine tatsächliche Entscheidung oder einen Arbeitsablauf verändern, nicht nur ein ausgeklügeltes Ergebnis liefern. Wenn das Ergebnis das Verhalten nicht zuverlässig verändert, handelt es sich um eine Demo, nicht um ein Produkt.

Zweitens müssen sie messbar sein. Meine Großeltern pflegten zu sagen: „Gut gemessen ist die halbe Miete.“ In regulierten Umgebungen ist es sogar mehr als die Hälfte. Wenn wir Erfolg, Fehlermodi und Überwachung nicht im Vorfeld definieren können, bedeutet das, dass wir die Aufgabe noch nicht verstanden haben.

Drittens müssen sie einer kritischen Prüfung standhalten. Dazu gehören die Herkunft der Daten, die Zugriffsgrenzen und die Möglichkeit, Ergebnisse zu erklären und nachzuvollziehen.

Wenn ein Projekt diese Tests besteht, fĂĽhrt es in der Regel sowohl zu taktischen Erfolgen als auch zu strategischen Synergieeffekten. Bei Motus haben wir so grundlegende Verbesserungen erzielt, darunter deutlich schnellere Berichte in groĂźem Umfang, weniger Ausnahmen und Automatisierung, die unseren Kunden echte Zeitersparnisse bringt.

Vertrauen und Erklärbarkeit sind entscheidend für die Einführung von KI in Unternehmen. Wie stellt Ihr Team sicher, dass die Modelle für Stakeholder in allen Geschäftsbereichen interpretierbar und vertrauenswürdig sind?

Vertrauen entsteht durch Klarheit, Konsequenz und ein System, das sich auch unter Druck selbst erklären kann.

Wir entwickeln Systeme mit einer Wiedergabefunktion. Gleiche Eingaben, gleiche Version, gleiche Ausgabe – plus eine lückenlose Dokumentation der Veränderungen im Zeitverlauf. Wir machen auch Residuen sichtbar. Jeder Fehler ist eine Information. Werden Fehler korrekt erfasst, lässt sich das Verhalten verständlich erklären und systematisch verbessern.

Bei Entscheidungen mit Prüfungsrisiko bevorzugen wir einfachere Modelle mit präziser Messung gegenüber undurchsichtiger Komplexität. Konkret bedeutet das klare Datendefinitionen, eine Bewertung anhand aussagekräftiger Leistungssegmente, die Überwachung von Abweichungen und einen dokumentierten Änderungsprozess. Die Beteiligten benötigen nicht jedes technische Detail. Sie brauchen die Gewissheit, dass das System messbar, begrenzt und kontinuierlich verbessert ist.

In Unternehmensumgebungen ist Erklärbarkeit keine Frage der philosophischen Präferenz. Sie ist eine Voraussetzung für die Akzeptanz und spielt eine wichtige Rolle, wenn Kunden künftigen Audits standhalten müssen.

Von HIPAA-konformen Datenpipelines bis hin zu IRS-konformen Berichten – Motus setzt auf sichere und skalierbare KI. Welche Best Practices würden Sie anderen KI-Verantwortlichen in regulierten Branchen empfehlen?

Ein paar Grundsätze, die sich gut übertragen lassen:

  • Behandeln Sie Compliance wie eine Autobahn. Bauen Sie befestigte StraĂźen, damit Teams schnell und sicher vorankommen können.
  • Definieren Sie frĂĽhzeitig die Grenzen. Machen Sie deutlich, welche Daten nicht das Land verlassen dĂĽrfen, welche Tools zugelassen sind und wo Modelle ausgefĂĽhrt werden können.
  • Automatisieren Sie die BeweisfĂĽhrung. Legen Sie Protokollierung, Herkunftsnachverfolgung und Versionsverwaltung als Standardeinstellungen fest, damit sie nicht erst während eines Audits mĂĽhsam zusammengetragen werden mĂĽssen.
  • Erst messen, dann skalieren. Gut gemessen ist die halbe Miete. Was man nicht sieht, kann man nicht verbessern.
  • Operationalisieren Sie die Residuen. Wandeln Sie Fehler in eine Fehlertaxonomie und einen priorisierten Verbesserungs-Backlog um.
  • Design fĂĽr Akzeptanz. Erfolgreiche Modelle basieren teils auf Statistiken, teils auf Partnerschaften und vor allem auf Veränderungsmanagement.

Wenn Ihre Governance in einer PDF-Datei gespeichert ist, ist sie nicht skalierbar. Wenn sie im System integriert ist, ist sie es.

Da Motus eine führende Rolle bei Fahrzeugkostenabrechnungen und Risikolösungen einnimmt, wie sehen Sie die Entwicklung von KI in diesem Bereich in den nächsten 3–5 Jahren?

Ich erwarte zwei große Veränderungen, die sich gegenseitig verstärken.

Zunächst wird das Risikomanagement von periodischen Kontrollen hin zu kontinuierlichen, entscheidungsrelevanten Signalen verlagert. Aktuell erfahren die meisten Unternehmen noch zu spät von Fahrerrisiken – entweder nach einem Vorfall oder im Rahmen einer punktuellen Überprüfung. Die nächste Generation umfasst Systeme, die Risiken früher und präziser aufdecken, indem sie bereits im Betrieb vorhandene Muster nutzen: Änderungen der Fahrberechtigung, Deckungslücken, ungewöhnliche Fahrleistungsmuster und Diskrepanzen zwischen erwartetem und beobachtetem Verhalten. Ziel ist es nicht, das Urteilsvermögen zu ersetzen, sondern den Bereichen Sicherheit, Personalwesen, Finanzen und Betrieb ein klareres Frühwarnsystem mit weniger Fehlalarmen und besserer Dokumentation der Gründe für die jeweilige Meldung bereitzustellen.

Zweitens wird die Kostenerstattung von einem papierbasierten Prozess hin zu einem Workflow verlagert. Unternehmen verlieren nach wie vor erstaunlich viel Zeit durch Einreichungen, Korrekturen, Genehmigungen und nachträgliche Aufräumarbeiten. Ich erwarte in den nächsten Jahren eine stärkere Automatisierung des gesamten Kostenerstattungsprozesses: Vorausfüllen von Feldern, die sich vorausfüllen lassen, frühzeitiges Erkennen fehlender oder inkonsistenter Eingaben, Weiterleitung von Ausnahmen an den zuständigen Genehmiger mit Kontextinformationen und Reduzierung manueller Rückfragen. Bei erfolgreicher Umsetzung beschleunigt dies die Kostenerstattung und verbessert die Rechtssicherheit, da die Nachweiskette im Rahmen des Prozesses generiert und nicht später rekonstruiert werden muss.

Das Spannende daran ist, wie die Faktoren zusammenwirken, wenn die Grundlagen stimmen. Sind die Grenzen klar definiert und die Auswirkungen sichtbar, entsteht ein sich selbst verstärkender Kreislauf: weniger Ausnahmen, sauberere Anträge, schnellere Genehmigungen, bessere Risikosignale und eine transparentere Dokumentation der Entscheidungsfindung.

Die Zukunft liegt nicht in „KI überall“. Sie liegt vielmehr in KI, die zum richtigen Zeitpunkt eingesetzt wird, mit aussagekräftigen Mess- und Feedbackschleifen, die sich ständig verbessern.

Welchen Rat würden Sie jungen Berufstätigen geben, die eine Führungsrolle im Bereich Daten und KI in komplexen Geschäftsumgebungen anstreben, basierend auf Ihrem Werdegang in den Bereichen Recht, Neurowissenschaften, Statistik und angewandte KI?

Lerne, Systeme zu entwickeln, nicht nur Modelle. Oder anders ausgedrĂĽckt: Baue die Infrastruktur, optimiere die Infrastruktur und halte die Karte aktuell.

Suchen Sie den direkten Kontakt zu denjenigen, die die Folgen am eigenen Leib erfahren. Mitarbeiter im direkten Kundenkontakt erkennen Anzeichen oft, bevor Ihre Daten dies zeigen. Ihr Feedback ist nicht „anekdotisch“. Es liefert häufig die fehlenden Informationen.

Entwickeln Sie ein sicheres Gespür für Messungen und Demut im Umgang mit Fehlern. Residuen sind wertvoll, wenn Sie bereit sind, zuzuhören. In regulierten Umgebungen sollten Sie zusätzlich die Beweislast übernehmen: Sie müssen erklären können, was Sie entwickelt haben, warum es sich so verhalten hat und wie Sie bei Änderungen vorgehen werden.

Denken Sie daran: Die Akzeptanz ist ein wesentlicher Bestandteil der Arbeit. Veränderungsmanagement ist keine optionale Zusatzfunktion, sondern eine Grundvoraussetzung für den erfolgreichen Einsatz Ihrer KI. Das bedeutet, dass fundierte Kenntnisse in Daten, Modellen und Algorithmen allein nicht ausreichen. Sie müssen effektiv mit verschiedenen Geschäftsbereichen zusammenarbeiten, Vertrauen aufbauen und den menschlichen Faktor berücksichtigen, der ein gutes Modell in eine praktikable Anwendung verwandelt. Gelingt Ihnen das, entwickeln Sie nicht nur Modelle, sondern schaffen auch Vertrauen.

Vielen Dank für das tolle Interview, Leser, die mehr erfahren möchten, sollten vorbeischauen Motus.

Antoine ist ein visionärer Leiter und Gründungspartner von Unite.AI, angetrieben von einer unerschütterlichen Leidenschaft für die Gestaltung und Förderung der Zukunft von KI und Robotik. Als Serienunternehmer glaubt er, dass KI für die Gesellschaft ebenso umwälzend sein wird wie Elektrizität, und schwärmt oft vom Potenzial disruptiver Technologien und AGI.

Als Futuristwidmet er sich der Erforschung, wie diese Innovationen unsere Welt prägen werden. Darüber hinaus ist er der Gründer von Wertpapiere.io, eine Plattform, deren Schwerpunkt auf Investitionen in Spitzentechnologien liegt, die die Zukunft neu definieren und ganze Branchen umgestalten.