Thought Leaders
December 12, 2025
大多数公司在AI智能体认知上的误区
在各行各业,AI智能体被宣传为可无缝替代人类工作流程、承诺即时效率的即插即用方案。但现实要复杂得多。我们仍处于采用这些系统的早期阶段,其成功取决于周密的部署、坚实的数据基础和持续的人工监督。2025年最新的斯坦福AI指数报告显示,尽管AI正在推动各行业可衡量的生产力提升,但组织同时也报告了不断上升的可靠性风险和持续存在的运营监督缺口。2025年的调查数据突显了人们对输出错误和幻觉的担忧急剧增加,并揭示尽管高层的AI治理成熟度正在提高,但系统级的安全保障和风险缓解仍然滞后。将在这一智能体时代蓬勃发展的团队,并非简单地将新技术塞入技术栈并期望变革奇迹般地出现。他们正在退一步,重新思考工作应如何流动,将智能体AI视为重新设计其运营模式的战略机遇,而非一个即插即用的捷径。在Quantum Metric,一位副总裁直言不讳:“我每花一小时完善一个智能体,就能获得数小时的回报。”AI优先的团队理解这种复合效应。当智能体被正确部署、训练和评估时,它们会成为生产力的力量倍增器。它们是队友,而非设置后即可遗忘的工具。然而,许多组织陷入了三个可预见的陷阱。1. 为AI智能体设定失败智能体的意义不在于即时解决问题;其真正力量在于扩展已经有效的策略。然而,许多公司在这些策略(或其背后的数据)稳定之前就部署了它们。智能体若没有基础知识、训练和数据卫生,就无法独立运作。这与新员工入职没什么不同:你不会只给他们一台笔记本电脑就指望一切顺利。它们需要清晰的目标、对权威数据源的访问、明确的标准以及治理护栏,以理解业务及其在其中的角色。Gartner的 AI TRiSM市场指南强化了这一点:组织必须清点AI系统,分类并保护其底层数据,并在所有用例中强制执行政策。Gartner特别强调了运行时检查和政策执行对于防止漂移、错位或高风险决策至关重要。如果你的数据不准确、不互联且未得到持续维护,你的智能体将不仅仅是无效的;它们会自信地犯错。这就是早期采用者团队脱颖而出的地方:他们将智能体视为需要有意向性入职的系统,而非在后台神奇学习的自动化程序。他们投资于结构化的知识转移、强化循环和持续评估。他们明白,智能体的表现反映了其周围环境的质量。2. 低估人在自动化中的作用关于智能体的讨论常常陷入一种错误的二元对立:人与机器。但在实践中,绝大多数智能体将增强人类工作,而非取代它。训练、监督和迭代AI智能体是技术性劳动,对此专业技术的需求正在迅速增长。斯坦福全球负责任AI状况调查发现,采用AI的组织将数据治理、可靠性风险、监督和安全控制列为其首要关注点,这表明人类判断在智能体的整个生命周期中仍然至关重要。正如麦肯锡所强调的,管理者的角色正在从管理人演变为管理系统:即人类与智能体并肩工作的生态系统。未来的领导力在于协调混合团队、确保一致性并持续调整绩效。这种转变需要一套新的管理技能:领导者必须知道如何“指导”智能体、审计其推理、诊断故障模式并纠正行为。在许多方面,管理智能体更接近于管理一名高绩效分析师,而非管理一个软件。它是迭代的、关联的和持续的。那些擅长运用智能体的团队不会问:“我们如何自动化这个人?”他们会问:“我们如何重新设计这个工作流程,让人类和智能体相互提升?”这种协作而非对抗的思维模式,是将有意义的投资回报与表面实验区分开来的关键。3. 忽视运营和道德护栏负责任的部署是成败的关键。智能体行动迅速并做出重要决策,就像人类员工一样,有时甚至更快、规模更大。公司常常低估与自主决策相关的运营、合规和道德风险。但此处的盲点可能导致连锁故障。NIST AI风险管理框架给出了明确的指示:组织必须将AI风险与财务、声誉、网络安全和隐私风险一同评估,在AI生命周期的每个阶段嵌入保障措施。换言之,AI治理必须是结构性的。它不能是事后才考虑的事情。Gartner呼应了这种紧迫性。他们的指南强调需要运行时监控、对齐检查、异常检测和主动验证,以防止幻觉、违反政策或推理错位。在不检查组织的技术栈、治理模型和风险状况的情况下仓促实施,无疑是引入比解决的问题更多问题的可靠方法。这就是为什么最成熟的公司遵循双重使命:快速部署,但更快地治理。他们将创新与纪律相结合。他们将智能体AI视为一个不断发展的系统,需要安全性、可靠性工程和透明的决策追踪,而非一个允许不受约束地漫游的黑箱。智能体AI已在何处创造价值在各行各业,早期采用者发现,智能体在那些高容量、规则驱动、上下文密集且实时决策能放大绩效的工作中表现出色: 在客户服务中,智能体可以处理分诊、总结问题、提出下一步最佳行动建议,并在保持上下文的情况下智能升级。 在运营中,它们可以监控工作负载、标记异常、修复常规问题,并为人类操作员提供决策支持。 在销售和营销中,智能体可以管理入站线索资格认证、引导对话、协助个性化,并确保没有任何遗漏。它们还可以通过电子邮件自主培育入站线索并预订会议,帮助团队跟上买家意向的步伐,而无需增加人工负担。 在所有情况下,当人类专家提供策略、上下文和治理时,智能体表现出色;而当这些要素缺失时,它们就会失效。下一个前沿:构建AI就绪型组织对于现代劳动力而言,AI智能体不是“是否”的问题,而是“何时”的问题,而蓬勃发展的团队与苦苦挣扎的团队之间的区别归结为一点:参与度。他们持续地衡量、调整、评估、完善和再训练。他们营造人类与智能体协作而非竞争的文化。斯坦福AI指数指出,虽然AI可以加速生产力和科学进步,但它也加剧了安全和可靠性风险,要求组织在监督、风险缓解和治理方面的投资,要与在模型开发上的投资一样积极。那些在智能体应用上成功的公司往往秉持三个习惯: 他们以可见性运作。 他们指示智能体解释决策、展示推理过程并暴露故障模式。 他们将治理视为赋能手段。 护栏加速规模化;它们不会减缓它。 他们投资于人类“控制塔”。 他们组建团队来监督、验证和审计智能体,就像对待任何高风险系统一样。为有意义的投资回报奠定基础AI智能体确实可以彻底改变生产力,但前提是基础牢固且推出过程是经过深思熟虑的。这需要: 准确且互联的数据 结构化的入职流程 透明的治理 人在环路的监督 持续完善 混合团队间的一致性 那些将智能体视为合作伙伴而非捷径的组织,将成为解锁智能体AI所能带来的复合回报的组织。智能体时代是关于重新设计系统,以便人与智能体相互提升彼此的优势。而那些愿意在今天投入这项工作的公司,将定义明天的生产力前沿。