存根 Yotam Oren,Mona Labs 首席执行官兼联合创始人 - 访谈系列 - Unite.AI
关注我们.

面试

Yotam Oren,Mona Labs 首席执行官兼联合创始人 – 访谈系列

mm

发布时间

 on

Yotam Oren,首席执行官兼联合创始人 莫娜实验室,这个平台使企业能够通过真正了解机器学习模型在实际业务流程和应用程序中的行为方式,将人工智能计划从实验室实验转变为可扩展的业务运营。

Mona 自动分析受保护数据段和业务功能背景下的机器学习模型的行为,以检测潜在的人工智能偏差。 Mona 能够生成符合行业标准和法规的完整公平报告,并让人们相信 AI 应用程序合规且不存在任何偏见。

是什么最初吸引您进入计算机科学?

计算机科学在我的家庭中是一条很受欢迎的职业道路,因此它始终是一个可行的选择。 当然,以色列文化非常支持科技。 我们赞扬创新技术人员,我一直认为计算机科学将为我提供成长和成就的跑道。

尽管如此,当我到了大学年龄时,它才成为个人的爱好。 我不是那些在中学就开始编码的孩子之一。 年轻时,我忙于打篮球,没有时间关注电脑。 高中毕业后,我在军队服役了近 5 年,担任作战/战斗领导职务。 所以,在某种程度上,当我需要在大学选择学术专业时,我实际上才开始更多地学习计算机科学。 立即引起我注意的是计算机科学将解决问题和学习一门语言(或多种语言)结合起来。 有两件事是我特别感兴趣的。从那时起,我就迷上了。

从 2006 年到 2008 年,您在一家小型初创公司从事地图和导航工作,您从这个时代获得的一些主要收获是什么?

我在 Telmap 的职责是在地图和位置数据之上构建一个搜索引擎。

这是企业“大数据”的早期阶段。 我们甚至没有这么称呼它,但我们正在获取大量数据集,并试图得出最具影响力和相关的见解来向我们的最终用户展示。

我的一个惊人的认识是,公司(包括我们)只使用了很少的数据(更不用说公开的外部数据)。 新见解、更好流程和体验的潜力巨大。

另一个要点是,能够获取更多数据当然依赖于更好的架构、更好的基础设施等。

您能分享一下 Mona Labs 背后的起源故事吗?

我们三个联合创始人在整个职业生涯中一直致力于数据产品。

首席技术官尼莫是我的大学朋友和同学,也是谷歌特拉维夫的第一批员工之一。 他在那里推出了一款名为 Google Trends 的产品,该产品具有大量基于搜索引擎数据的高级分析和机器学习功能。 另一位联合创始人兼首席产品官 Itai 是 Nemo 在 Google 的团队成员(我和他是通过 Nemo 认识的)。 他们两人总是对人工智能驱动的系统在最初的开发和测试后不受监控感到沮丧。 尽管在生产前正确测试这些系统存在困难,团队仍然不知道他们的预测模型随着时间的推移表现如何。 此外,他们似乎唯一一次听到有关人工智能系统的反馈是当事情进展不顺利并且开发团队被要求进行“消防演习”以解决灾难性问题时。

大约在同一时间,我担任麦肯锡公司的顾问,我发现人工智能和大数据项目在大型企业中扩展的最大障碍之一是业务利益相关者对这些项目缺乏信任。

在尼莫、伊泰和我的谈话中,这里的共同点变得清晰起来。 该行业需要基础设施来监控生产中的 AI/ML 系统。 我们提出了提供这种可见性的愿景,以增加业务利益相关者的信任,并使人工智能团队能够始终掌握其系统的运行情况并更有效地进行迭代。

莫娜就是在那时成立的。

目前人工智能缺乏透明度存在哪些问题?

在许多行业,组织已经在人工智能项目上花费了数千万美元,并在实验室和小规模部署中取得了一些初步成功。 但扩大规模、实现广泛采用并让企业真正依赖人工智能对几乎每个人来说都是一个巨大的挑战。

为什么会发生这种情况? 嗯,首先,伟大的研究不会自动转化为伟大的产品(一位客户曾经告诉我们,“ML 模型就像汽车,一旦离开实验室,就会失去 20% 的价值”)。 伟大的产品都有支撑系统。 有一些工具和流程可以确保质量随着时间的推移而持续,并尽早发现问题并有效解决。 优秀的产品还具有持续的反馈循环、改进周期和路线图。 因此,优秀的产品需要深度且持续的性能透明度。

当缺乏透明度时,您最终会得到:

  • 隐藏一段时间然后突然暴露出来导致“消防演习”的问题
  • 冗长的手动调查和缓解措施
  • 不受业务用户和赞助商信任并最终无法扩展的人工智能程序

使预测模型透明且值得信赖背后有哪些挑战?

当然,透明度是获得信任的重要因素。 透明度可以有多种形式。 存在单一预测透明度,其中可能包括向用户显示置信度,或提供预测的解释/理由。 单一预测透明度主要旨在帮助用户适应预测。 然后,整体透明度可能包括有关预测准确性、意外结果和潜在问题的信息。 人工智能团队需要整体透明度。

整体透明度中最具挑战性的部分是及早发现问题,提醒相关团队成员,以便他们能够在灾难发生之前采取纠正措施。

为什么尽早发现问题具有挑战性:

  • 问题往往从小事开始,慢慢酝酿,最后才浮出水面。
  • 问题通常是由不可控或外部因素(例如数据源)引起的。
  • “划分世界”的方法有很多种,而详尽地寻找小范围内的问题可能会导致大量噪音(警报疲劳),至少在以幼稚的方法完成此操作时是这样。

提供透明度的另一个挑战是人工智能用例的激增。 这使得一刀切的方法几乎不可能实现。 每个人工智能用例可能包括不同的数据结构、不同的业务周期、不同的成功指标,以及通常不同的技术方法甚至堆栈。

所以,这是一项艰巨的任务,但透明度对于人工智能程序的成功至关重要,所以你必须这样做。

您能否分享一些有关 NLU / NLP 模型和聊天机器人解决方案的详细信息?

对话式人工智能是 Mona 的核心垂直领域之一。 我们很自豪能够通过广泛的对话式人工智能用例(包括语言模型、聊天机器人等)为创新公司提供支持。

这些用例的一个共同因素是模型的运行距离客户很近(有时是明显的),因此性能不一致或不良行为的风险更高。 对于对话式 AI 团队来说,详细了解系统行为变得非常重要,这是 Mona 监控解决方案的优势领域。

Mona 的解决方案非常独特,它系统地筛选对话组并找到模型(或机器人)行为不当的地方。 这使得对话式人工智能团队能够在客户注意到问题之前及早发现问题。 此功能是对话式 AI 团队在选择监控解决方案时的关键决策驱动因素。

综上所述,Mona 为对话式 AI 监控提供了端到端的解决方案。 首先确保系统随时间变化的行为有单一信息源,然后持续跟踪关键绩效指标,并主动洞察一些不当行为,使团队能够采取先发制人、有效的纠正措施。

您能否提供有关 Mona 洞察引擎的一些详细信息?

当然。 让我们从动机开始。 洞察引擎的目标是向用户显示异常情况,并提供适量的上下文信息,并且不会产生噪音或导致警报疲劳。

洞察引擎是一种独一无二的分析工作流程。 在此工作流程中,引擎搜索数据所有部分中的异常,从而可以在问题仍然“很小”时以及在影响整个数据集和下游业务 KPI 之前及早发现问题。 然后,它使用专有算法来检测异常的根本原因,并确保每个异常仅发出一次警报,从而避免噪音。 支持的异常类型包括:时间序列异常、漂移、异常值、模型退化等。

洞察引擎可通过 Mona 直观的无代码/低代码配置进行高度定制。 引擎的可配置性使 Mona 成为市场上最灵活的解决方案,涵盖广泛的用例(例如批处理和流式传输、有/没有业务反馈/地面实况、跨模型版本或训练和推理之间等等) )。

最后,该洞察引擎由可视化仪表板(可以在其中查看洞察)和一组调查工具支持,以实现根本原因分析和对上下文信息的进一步探索。 洞察引擎还与通知引擎完全集成,可以将洞察提供给用户自己的工作环境,包括电子邮件、协作平台等。

31月XNUMX日, 莫娜揭幕 其新的人工智能公平解决方案,您能否与我们分享该功能的详细信息以及它为何重要?

人工智能公平性是指确保算法和人工智能驱动的系统总体上做出公正且公平的决策。 解决和防止人工智能系统中的偏见至关重要,因为它们可能会导致现实世界的重大后果。 随着人工智能的日益突出,它对人们日常生活的影响将在越来越多的地方显现出来,包括自动化驾驶、更准确地检测疾病、提高我们对世界的理解,甚至创造艺术。 如果我们不能相信它是公平和公正的,我们如何允许它继续传播?

人工智能偏差的主要原因之一就是模型训练数据完整代表现实世界的能力。 这可能源于历史歧视、某些群体的代表性不足,甚至是故意操纵数据。 例如,主要针对浅肤色个体进行训练的面部识别系统在识别深色肤色个体时可能会出现更高的错误率。 同样,如果数据偏向于宗教、文化等主题的某些世界观,则用来自狭窄来源的文本数据训练的语言模型可能会产生偏差。

Mona 的人工智能公平解决方案让人工智能和业务团队相信他们的人工智能没有偏见。 在受监管的行业,Mona 的解决方案可以帮助团队做好合规准备。

Mona 的公平解决方案很特别,因为它位于 Mona 平台上——人工智能数据和模型及其现实世界影响之间的桥梁。 Mona 着眼于人工智能模型在生产中所服务的业务流程的所有部分,将训练数据、模型行为和实际结果关联起来,以提供最全面的公平性评估。

其次,它拥有独一无二的分析引擎,可以灵活地分割数据以控制相关参数。 这使得能够在正确的上下文中进行准确的相关性评估,避免辛普森悖论,并为任何性能指标和任何受保护的功能提供深刻的真实“偏差分数”。

因此,总的来说,我认为 Mona 是需要构建和扩展负责任的人工智能的团队的基本要素。

您对人工智能的未来有何愿景?

这是一个大问题。

我认为很容易预测人工智能将在各个行业领域和人们生活的各个方面的使用和影响继续增长。 然而,很难认真对待一个详细的愿景,同时试图涵盖人工智能未来的所有用例和影响。 因为没有人真正了解足够的知识来可信地描绘这幅图画。

话虽如此,我们可以肯定的是,人工智能将掌握在更多人手中并服务于更多用途。 因此,对治理和透明度的需求将显着增加。

真正了解人工智能及其工作原理将发挥两个主要作用。 首先,它将有助于向人们灌输信任并消除阻力障碍,以加快采用速度。 其次,它将帮助任何操作人工智能的人确保它不会失控。

感谢您的精彩采访,想要了解更多信息的读者可以访问 莫娜实验室.

Unite.AI 创始合伙人 & 会员 福布斯技术委员会, 安托万是一个 未来学家 他对人工智能和机器人技术的未来充满热情。

他也是 证券,一个专注于投资颠覆性技术的网站。