Connect with us

访谈

Manuel Romero,Maisa 联合创始人兼首席科学官 – 专访系列

mm

Manuel Romero 是 Maisa 的联合创始人兼首席科学官,他是一位专注于开发可靠、企业级人工智能系统的 AI 研究员和工程师。他于 2024 年共同创立了 Maisa,旨在构建能够以透明和可控的方式执行复杂业务流程的负责任 AI。在加入 Maisa 之前,Romero 曾在 Clibrain 和 Narrativa 等公司担任高级 AI 工程和机器学习职位,专攻自然语言处理和大规模 AI 系统。在其职业生涯早期,他曾担任全栈软件工程师和 DevOps 专家,之后转型从事高级 AI 研究与开发,并成为开源 AI 生态系统的积极贡献者。 Maisa AI 开发自主的“数字员工”,即旨在自动化复杂企业工作流程同时保持可追溯性、治理和可靠性的 AI 智能体。该平台允许组织使用自然语言构建和部署 AI 智能体,无需大量编码即可实现跨内部系统和数据源的自动化。通过专注于可验证的推理和结构化执行,Maisa 旨在克服与生成式 AI 系统相关的常见限制,并帮助企业安全地大规模部署自主 AI。 您经常关注理解 AI 系统背后更深层的“原因”。从技术角度来看,是什么促使您在 2024 年共同创立 Maisa?您认为企业 AI 架构中存在哪些未被解决的空白? 创立 Maisa 的动机源于一个认识:大多数企业 AI 技术栈是围绕模型而非系统构建的。 在生成式 AI 热潮期间,许多公司专注于将大型语言模型集成到现有工作流程中。然而,这些系统通常很脆弱、不透明且难以大规模操作。它们缺乏:

  • 在关键环节的确定性执行。
  • 强大的可观测性、可追溯性
  • 可复现性

我们看到的空白是缺乏真正面向企业的 AI 基础设施。公司正在围绕 LLM API 构建应用程序,但它们缺少类似于知识工作的计算机架构的东西。 Maisa 的创立就是为了填补这一空白,我们设计了一个以知识处理单元(KPU)为核心的架构,这是一个使 AI 能够在真实企业工作流程中可靠运行的系统。 在创立 Maisa 之前,您曾从事先进的自然语言处理和生成系统工作。这些经验如何塑造了该平台背后的架构选择? 我在 NLP 和 NLG 领域的工作经验,特别是在语言模型以及后来的大型语言模型(数百个)的训练和预训练方面,让我在尝试基于它们构建真实系统时非常清楚地认识到一点。Transformer 架构极其强大,但至少存在三个基础性限制,必须加以解决才能在生产中可靠地使用它。 第一个是幻觉。这些模型以概率方式生成文本,可能产生听起来正确但并非基于已验证信息的输出。 第二个是上下文限制。即使拥有更大的上下文窗口,模型也在有限的令牌空间内运行,这使得对庞大或复杂的知识体系进行推理变得困难。 第三个是最新信息。预训练模型代表训练时的知识快照,而企业环境需要能够对不断变化的信息进行推理的系统。 认识到这些约束塑造了 Maisa 背后的许多架构决策。我们没有仅仅依赖模型本身,而是专注于构建一个提供结构化知识访问、验证机制和受控执行的系统,以便 AI 能够在真实的企业工作流程中可靠运行。 许多企业尝试使用生成式 AI,但难以超越试点阶段。从系统设计的角度来看,在众多组织中,规模化失败的核心原因是什么? 许多企业难以超越生成式 AI 的试点阶段,因为大多数部署是作为实验而非稳健的系统来构建的。早期原型通常依赖于提示工程、轻量级编排和简单的检索流程,这些可以展示价值,但无法提供生产环境所需的可靠性、可观测性或控制力。当组织试图扩展这些系统时,会遇到诸如输出不一致、缺乏可追溯性、难以与企业工作流程集成以及对 AI 行为治理有限等问题。其核心问题在于,大型语言模型是概率生成器,而企业流程需要可预测且可审计的行为。如果没有一个围绕推理、验证、执行和监控添加结构的架构,生成式 AI 系统将难以超越孤立的使用场景。 Maisa 的数字员工被设计为可审计和结构化的,而非纯粹概率性的。对于评估用于生产环境的 AI 的企业来说,这在实践层面意味着什么? 当我们说 Maisa 的数字员工是可审计和结构化的,而非纯粹概率性时,我们的意思是 AI 在一个受控系统内运行,其行为和推理可以被追踪和治理。系统不是让模型自由生成输出和决策,而是构建了 AI 与数据、工具和工作流程交互的方式。流程中的每一步都可以被记录、检查和验证,并且操作是通过定义的接口执行的,而不是直接从模型输出中执行。对于企业而言,这意味着 AI 系统可以更放心地被监控、审计并集成到关键流程中。它将 AI 从一个黑盒助手转变为一个其行为可以在生产环境中被理解、控制和信任的系统。 作为知识处理单元的设计者,它与围绕大型语言模型构建的典型编排层或工作流引擎有何不同? 知识处理单元与典型编排层的不同之处在于,它旨在管理 AI 驱动推理的完整生命周期,而不仅仅是协调提示和模型调用。大多数编排框架充当工作流管理器,将检索、提示和工具执行等步骤链接在一起。KPU 在更深的架构层面运作,它构建了知识如何被访问、推理如何执行以及操作如何在系统内执行的方式。它将知识处理视为核心计算层,集成了记忆、验证和受控执行,使 AI 能够在复杂的企业工作流程内部可靠运行,而不仅仅是生成响应。 在受监管的行业,风险容忍度很低。您做出了哪些具体的设计决策来确保 AI 输出保持可靠,并且不会在复杂的工作流程中传播错误? 在受监管的行业,可靠性和控制至关重要,因此我们设计了多个保障措施来确保 AI 输出保持可信。一个关键原则是结构化执行,即 AI 不能在不通过受控接口的情况下直接触发关键操作。我们还整合了验证层,在模型输出被接受之前,会根据模式、规则或辅助机制对其进行检查。此外,系统保持完全的可观测性,记录推理步骤、工具交互和决策,以便可以追踪和审计。这些设计选择共同有助于防止错误在工作流程中传播,并使组织能够以受监管环境所需的可靠性和治理水平来操作 AI 系统。 在哪些最具吸引力的早期使用案例中,您看到数字员工从引导式辅助转变为完全由 AI 驱动的操作执行? 一些最具吸引力的早期使用案例出现在知识密集型工作流程中,这些流程定义明确但仍需要大量的分析和决策。在合规审查、技术支持运营和内部知识管理等领域,数字员工可以超越简单地辅助人类,开始端到端地执行结构化任务。它们可以检索和分析大量的内部信息,应用既定程序,通过受控工具与企业系统交互,并产生直接输入到操作工作流程中的输出。关键的转变发生在 AI 不仅生成建议,而且能够在受治理的系统内可靠地执行定义的操作时,这使得组织能够自动化复杂知识工作的某些部分,而不仅仅是增强它。 随着全球范围内对 AI 的监管审查日益加强,您认为核心 AI 基础设施将如何演变以满足合规要求,同时又不限制创新? 随着对 AI 的监管审查日益加强,我相信我们将看到一种转变,即不再仅仅依赖简单调用模型提供商 API 并盲目信任其输出的架构。企业和监管机构将越来越多地要求 AI 行为可观测、可审计且受治理的系统。这就是像知识处理单元这样的架构变得重要的地方。这种类型的架构允许组织实施控制、追踪决策,并确保 AI 输出在影响真实流程之前是可靠的。随着时间的推移,我预计这类系统将成为可信 AI 基础设施的标准基础。 您在技术工作之外也谈到了伦理和责任。这些观点如何影响您构建透明 AI 系统的方法? 对我来说,伦理和责任直接转化为系统设计选择。如果 AI 系统要参与真实的操作工作流程,它们就不能作为不透明的黑盒运行,其行为无法被检查或理解。这一观点深刻影响了我构建 AI 系统的方法。透明度、可追溯性和人类监督需要从一开始就内置到架构中。这意味着要确保推理步骤可以被观察,决策可以被审计,并且操作通过受控机制执行。当这些原则嵌入到基础设施层面时,AI 系统不仅变得更加可信,也更容易让组织负责任地进行治理。 展望未来,您是否认为智能体 AI 基础设施将变得像过去十年的云基础设施一样基础——要实现这种转变,技术上需要发生什么? 我确实相信智能体 AI 基础设施有潜力变得像过去十年云基础设施那样基础。随着组织寻求自动化日益复杂的知识工作,他们将需要能够可靠地跨多个任务和数据源协调推理、记忆和执行的系统。然而,要实现这种转变,底层架构必须超越简单的模型集成而成熟起来。我们需要提供结构化推理、可靠访问企业知识、强大可观测性以及受控操作执行的基础设施。当这些能力被构建到核心系统中时,智能体 AI 可以从实验性工具演变为组织赖以运行关键操作的可靠基础设施。 感谢您接受这次精彩的采访,希望了解更多信息的读者请访问 Maisa AI

//www.futurist.ai">未来主义者,他致力于探索这些创新将如何塑造我们的世界。此外,他还是Securities.io的创始人,该平台专注于投资那些正在重新定义未来并重塑整个行业的尖端技术。