访谈
Pablo Ormachea,Motus 数据副总裁 – 采访系列

Pablo Ormachea,Motus 数据副总裁,构建了企业级的人工智能和分析系统,旨在快速移动,同时能够承受监管和财务审查。他领导完全远程、跨职能团队,专注于基于证据的决策系统,以提高留存率、扩大利润率和提供可衡量的投资回报率。在 Motus,他重新设计了超过 35 万名驾驶员的分析系统,实现了 60 倍更快的报告速度,且无超时,并发布了包括异常检测和客户流失预测在内的 AI/ML 系统,这些系统为客户节省了数百万美元。他还联合撰写了 Motus 的 AI 治理框架,实现了安全的 LLM 实验,具有清晰的默认值、强大的审计能力和数据栈中的一致业务逻辑。Motus 是一家劳动力管理和移动软件公司,帮助组织管理车辆报销、里程跟踪和移动劳动力运营。其云平台自动化税收优惠报销计划,提供实时报告和洞察力,帮助企业降低成本、提高生产力和管理遵守规定的员工驾驶行为。
您在人工智能工程、数据战略和监管领域拥有独特的职业生涯,从哈佛法学院到 Motus 的数据和人工智能领导。哪些关键经验塑造了您在构建同时具有技术先进性和严格监管框架的合规性的 AI 系统方面的方法?
我早早地学会了将合规性视为工程约束,而不是法律事后思考。如果您建造了一条高速公路,您可以以高速公路的速度行驶。如果您假装它是一条土路并且加速行驶,您不会更快地移动,您只会更快地崩溃。哈佛法学院以一种令人惊讶的方式帮助我,因为普通法体系基本上是基于残差的学习。一个规则遇到了现实,边缘情况暴露了它的失败之处,学说得到了改进。这种思维模型是我用于生产环境中的人工智能的方法。每个残差都是一个礼物,它告诉您您的假设与现实世界在哪里发散,并为您提供了一个具体的路径来改进系统。因此,我同时优化两个目标:发布速度和证明负担。目标不是“创新与合规性”。目标是构建能够快速移动并仍然能够清晰、可重复地回答“您如何知道?”的系统。
您联合撰写了 Motus 的 AI 治理政策,该政策简化了审批流程,同时保持了强大的控制。设计该政策时,您遵循了哪些原则,您如何平衡创新速度与审计准备?
我们没有着手编写规则,我们画了一张地图。当人工智能采用开始时,来自各个方向的兴趣会产生,速度可能会变成噪音,或者更糟糕的是,责任。因此,第一项工作是清晰度:LLM 可以运行的位置、不能离开的数据类型以及允许在安全车道中进行的实验类型。平衡来自于使安全路径成为容易的路径。治理失败时,它变成一个委员会,它起作用时,它变成默认值:批准的工具、清晰的数据边界、标准日志记录以及边缘情况的快速审批通道。目标是建设者不需要每次发布时重新谈判安全问题。然后,审计准备成为副产品,因为系统在运行时会生成证据,您不需要在事后匆忙收集证据。
您曾说过,人工智能实践应该达到“甚至 IRS 级别的审查”。您能分享一个例子,监管考虑直接影响了 Motus 的技术人工智能或机器学习决策吗?
在监管工作流程中,问题不仅仅是“模型是否准确?”,而是“您能以后展示您的工作吗?”,这种现实塑造了 Motus 中的“良好”标准。它改变了设计选择。对于某些用例,我们偏向于可解释、可重放和易于审计的方法。有时这意味着更简单的模型家族。通常这意味着确定性防护栏、版本化特征和以支持真实重放的方式记录输入和输出。一个具体的例子是,当我们更新了报销逻辑和报告的某些部分时,我们在关键决策点上推动了可追溯性,我们希望系统能够回答什么规则触发了什么数据,它使用了什么版本,什么会改变结果。这使得人工智能组件更加可用,并使整个工作流程更容易防御。收益是复合的。当您可以重放行为并切割错误时,残差不再神秘,它们变成了一个优先的待办事项列表:什么失败了,在哪里,为什么,以及什么变化可以弥补差距。
Motus 运营解决方案用于车辆报销和风险缓解,必须满足 IRS 和其他监管要求。人工智能如何提高这些企业用例中的合规性和准确性?
人工智能通过两种方式提供帮助:它减少了手动摩擦,并加强了可防御性。在报销方面,价值不仅在于自动化,还在于一致性。人工智能可以帮助分类行程、检测异常并更早地发现缺失信息,这减少了下游的协调。没有人希望报销成为每月的考古项目。合规性益处来自于更好的测量和更好的文档记录。您支持结果以清晰的记录为依据,而不是依赖事后重建。关于风险,人工智能是有用的,因为点时检查是不够的。企业希望对发生了什么变化、什么看起来不对劲以及什么需要关注有持续的认识。这里最好的人工智能系统并不戏剧化,它们安静、一致且可衡量。
领导远程、跨职能团队与法律、安全、财务和产品部门合作并非易事。您在将这些团队与数据和人工智能计划对齐时面临的最大挑战是什么?
最困难的部分是每个团队都是理性的,它们优化不同的风险。安全性担心的是暴露。法律担心的是可防御性。财务担心的是成本和可预测性。产品担心的是速度和客户价值。数据和工程担心的是可行性和可靠性。如果您将这些视为竞争性议程,您将停滞不前。解决方案是共享语言和清晰的车道。我们对决策达成一致,定义了界限,并同意了什么证据“良好”所需。然后我们建立默认值,因此大多数工作可以在没有仪式的情况下进行。我发现清晰度击败了说服力。当人们可以看到地图时,协调变得更加容易。
您推动了重大性能改进,例如为 35 万多名驾驶员实现 60 倍更快的报告,并为客户节省了数百万美元。您如何决定哪些人工智能/机器学习项目优先考虑,以实现战术影响和战略价值?
我优先考虑通过三个测试的项目。首先,它们必须改变真正的决策或工作流程,而不是仅仅产生一个聪明的评分。如果输出不会可靠地改变行为,那么它就是一个演示,而不是一个产品。其次,它们必须是可衡量的。我的祖父母曾说“测量得好就是做得好的一半”。在监管环境中,它更是如此。如果我们不能提前定义成功、错误模式和监控,它意味着我们还没有真正理解这项工作。第三,它们必须在审查下具有可防御性。这包括数据来源、访问边界以及以支持真实重放的方式记录输入和输出。当一个项目通过这些测试时,它往往会产生战术上的胜利和战略上的复合效果。在 Motus,这就是我们如何实现了显著的改进,包括在大规模上实现了明显更快的报告、更少的异常和将自动化转化为真正的客户时间节省的改进。
信任和可解释性对于企业人工智能采用至关重要。您的团队如何确保模型对于业务单位的利益相关者是可解释和可信的?
信任来自于清晰度、一致性和能够在压力下自我解释的系统。我们设计系统具有重放按钮。相同的输入、相同的版本、相同的输出,加上随时间变化的证据轨迹。我们还使残差可见。每个错误都是信息。如果您正确地记录错误,您可以用简单的语言解释行为,并以有纪律的方式改进它。当一个决策具有审计曝光时,我们偏向于更简单的模型加上强大的测量,而不是不透明的复杂性。实际上,这意味着清晰的数据定义、根据有意义的段切割性能的评估、监测漂移和记录的更改过程。利益相关者不需要每个技术细节,他们需要对系统有信心:它是衡量的、有界限的,并且正在改进。在企业环境中,可解释性不是一种哲学偏好,它是一种采用要求,并且它在客户需要承受未来审计时很重要。
从法律、神经科学、统计学到应用人工智能的旅程,您会给希望在复杂业务环境中领导数据和人工智能的年轻专业人士什么建议?
学习构建系统,而不仅仅是模型。或者说,构建高速公路,记录错误,并保持地图更新。接近结果的利益相关者。前线操作员通常在您的数据之前看到信号。他们的反馈不是“传闻”。它通常是缺失的功能集。开发测量和谦逊的错误的舒适度。残差是礼物,如果您愿意倾听。在监管环境中,添加证明负担的纪律:能够解释您构建了什么、为什么它表现出那样,以及当它改变时您会做什么。最后,记住采用是工作的一部分。变革管理不是一个软的附加项,它是一个核心要求,如果您希望您的 AI 被使用。因此,它不仅仅是数据、模型和算法的强项,还需要与业务部门合作、赢得信任并导航将一个好的模型转化为真正能力的人类路径。如果您可以做到这一点,您不仅会构建模型,还会构建信任。
感谢这次精彩的采访,希望了解更多的读者应访问 Motus。
