Entre em contato

Ali Sarrafi, Kovant 首席执行官兼创始人 – 专访系列

Entrevistas

Ali Sarrafi, Kovant 首席执行官兼创始人 – 专访系列

mm

Ali Sarrafi, Kovant的首席执行官兼创始人,是一位常驻斯德哥尔摩的经验丰富的技术和人工智能高管,拥有建立和发展高增长人工智能公司的良好记录。自2024 年底创立 Kovant 以来,他借鉴了在企业人工智能战略、市场进入执行和运营扩展方面的深厚经验。此前,在 Silo IA e AMD 收购后, 他曾担任其战略副总裁,负责制定企业人工智能战略并推动大规模采用。在其职业生涯早期,他联合创立了Combient Mix, 领导公司实现快速增长并被 Silo AI 成功收购,此后他还在教育和人工智能初创公司担任顾问和董事会职务,这体现了他始终专注于将先进人工智能转化为现实世界商业影响的理念。

Kovant 是一家企业人工智能公司, 专注于帮助组织从实验性的人工智能应用转向完全可运营的、自主的业务流程。该公司开发了一个基于智能体的平台,旨在跨复杂的运营领域(如采购、供应链、合规和客户运营)协调人工智能智能Kovant 将自己定位为战略人工智能雄心与日常执行之间的桥梁,帮助大型组织将人工智能直接嵌入核心工作流程,而不是将其视为独立的工具或试点项目。

您曾在 Spotify 领导重大人工智能计划,发展并成功退出了 Combient Mix,随后在 Silo AI塑造企业人工智能战略,然后才创立了 Kovant。在这些角色中,您遇到了哪些具体的差距或挫折,让您确信现在是构建自主企业平台的合适时机?这段历史如何塑造了Kovant 的核心设计理念?

在我之前的角色中,一些持续的差距不断显现。首先,大多数“垂直”人工智能工具实际上受限于单一软件堆栈:它们在该边界内能更好地完成一件事, 但一旦工作流程需要跨越多个系统,就会遇到困难。与此同时, 企业数据分散在许多工具中,许多自动化解决方案根本无法触及这些数据。再加上多年的点对点集成,就形成了典型的“意大利面条式”架构:复杂性增加,变更变慢,团队最终只能自动化单个步骤,而不是端到端地重新构想整个工作流程。结果是,投资回报率往往比组织预期的来得更慢、更小。

Kovant正是为应对这一现实而设计的。我们的核心理念是,智能体应该更像员工一样工作:他们跨多个工具工作,是被“雇佣”来完成工作的,而不是为了自动化单个脚本化的序列。这就是为什么我们内置了集成和编排功能, 以及为什么我们假设企业数据通常是混乱和非结构化的——它需要一种更类似人类的方法来处理异常和模糊性。

我们使用基础智能体来实现速度和规模,同时将数据主权置于核心位置:企业可以横向访问和使用自己的数据,而无需数据离开其本地环境。

Kovant将自己定位为一个能够用人工智能智能体运行整个运营和部门的自主企业平台。您如何在企业环境中定义“自主”?这与公司目前已经在试验的自动化和智能体工具有何不同?

在企业环境中,当我们说“自主”时,并不意味着“无人监督”。我们指的是人工智能智能体能够在明确的指导和护栏下,端到端地在整个运营中采取实际行动,并在需要监督时上报给人类。

Kovant, Kovant.Kovant的智能体不是自动化一个单一的、固定的流程或遵循预先构建的序列,而是可以作为一个团队(或集群)在运营中工作,仅使用指令和我们称为“蓝图”的运营概览。它们不是为一项狭窄的任务而设计的;它们协作解决复杂的工作流程,随着条件变化而适应,并在情况需要监督时移交给人员。

例如, 一个库存管理智能体团队可以执行以下所有工作,而无需从头开始重建,包括:通过电子邮件与供应商沟通、监控库存水平和缺货信号、跟踪发货和采购订单、跨系统更新状态、为库存计划员创建差异票以供批准、在仓库之间重新分配库存以及整合库存报告。

因此,这种转变在于,企业不再使用“聊天加工具”或在大规模时容易崩溃的脆弱自动化,而是从构建智能体转向大规模运行它们。

尽管人们对智能体人工智能兴趣巨大,但许多许多组织仍困在试点模式。从实际部署中观察,企业难以从实验转向规模化生产的主要原因是什么?

我们看到的情况是,大多数组织困在试点模式,并非因为想法错误,而是因为环境不利于规模化。

第一个障碍是碎片化的企业技术格局。工作流横跨大量系统,数据存储在多处,要可靠地将所有环节整合起来非常困难。而且,智能体AI通常作为现有工具的附加组件部署,而不是作为一种重新思考端到端工作流运行方式的手段。

还存在真正的架构和数据问题。许多SaaS供应商仍试图锁定数据,这造成了不兼容性,并限制了智能体跨系统的实际能力。许多团队低估了这样一个事实:大多数企业数据是非结构化的(电子邮件、文档、工单、PDF、聊天记录)。如果你的方法假设数据是干净、结构化的,那么实现价值的时间就会变得漫长、痛苦,并且难以在试点之外复制。

简而言之:碎片化、锁定效应和非结构化数据造成了阻力——除非针对这些现实情况进行设计,否则试点永远无法转化为生产。

可靠性常被认为是现实世界中部署AI智能体的最大障碍。为何许多智能体系统一旦离开受控环境就会失败,Kovant的方法如何减少幻觉和不可预测行为等问题?

有些智能体系统在演示中看起来很棒,但在现实世界中却失败了,因为环境混乱且不可预测。数据不完整或不一致,边缘情况不断出现(退款、纠纷、特殊审批)。工作流横跨多个工具、平台和集成,这些都会随时间变化,权限也各不相同。当要求AI智能体处理一项大型任务并一次性给予过多上下文时,幻觉和怪异行为的风险就会增加。

Kovant通过设计来减少这种情况。我们独特的架构缩小了模型处理的问题空间、决策空间和上下文范围,以减少幻觉。我们还将操作分解为针对单个智能体和步骤的、范围狭窄且专注的任务。这使得行为更可预测,并为系统增加了可追溯性和可控性,能更好地管理幻觉。我们可以看到每个智能体做了什么,故障从何处开始,并在需要时进行干预或升级。

幻觉不会神奇地消失, 但通过限制每个智能体的职责范围以及其可操作的上下文,我们可以降低其发生频率并限制其影响。这种“缩小任务/上下文”的方法也得到了Nvidia研究团队近期工作的支持,他们发现限制智能体决策能带来类似的好处。

随着AI智能体开始在业务系统中执行实际操作,问责制成为一个主要关切点。详细的操作日志如何改变关于信任、合规和运营风险的讨论?

有了详细的操作日志,我们可以看到发生了什么、为何发生以及接下来会发生什么。

详细的日志将智能体从一个在机器中默默工作的神秘机器人,转变为一个可供检查的系统。

在Kovant, 任何AI智能体部署都会有一个组织可以据此行动的风险图谱,我们对高风险操作设置了内置的人工把关机制,这意味着智能体只有在人工审查并批准决策后才能执行这些任务。所有这些都以与记录系统相同的方式进行记录,并且是可追溯的。

我们相信,将操作日志与人工监督和可观测性相结合以最小化风险非常重要。这意味着你仍然可以获得智能体运行实际运营所带来的速度和规模优势。

由于AI智能体决策不透明,关于它们是否能够投保的讨论日益增多。使智能体工作流可审计和可重放,如何帮助解决“黑箱”问题并为可投保性打开大门?

“黑箱”问题是导致可投保性困难的原因。如果你无法清晰地展示智能体做了什么、为何这样做以及存在哪些控制措施,那么任何人(尤其是保险公司)都很难对风险进行定价。

我们的方法本质上是前一个回答中问责制设置的延伸。这样模型就不会做出一个可能影响整个运营的、巨大且不透明的决策。每个步骤都更狭窄、更可预测、更容易评估。

然后我们增加了详细日志、可观测性和人工监督。对于最重要和最具影响力的决策,我们使用人工把关机制,因此智能体只有在审查和批准后才能继续。这大大提高了对工作流实际运行方式的可见性。

使工作流可审计和可重放

//www.futurist.ai">未来学家,他致力于探索这些创新将如何塑造我们的世界。此外,他还是Valores Mobiliários.io的创始人,该平台专注于投资那些正在重新定义未来并重塑整个行业的尖端技术。