思想领袖
人工智能的下一阶段是关于执行,而不是答案

自诞生以来,人工智能主要被视为一种洞察工具。聊天机器人回答问题,仪表盘呈现趋势,副驾驶系统比任何人都能更快地总结信息。这些工具确实能带来价值,但对许多组织而言,它们却无法从根本上改变结果。经过多年的试点和概念验证,一个清晰的模式已经显现:仅仅专注于回答问题的人工智能很少能解决团队日常运营中面临的瓶颈问题。
这并非个例。根据最近的 麦肯锡人工智能现状调查目前,近九成企业表示已在至少一项业务职能中使用人工智能,但很少有企业表示这些努力已转化为有意义的、全企业范围的影响。同样,一项针对2025年人工智能部署情况的分析发现: 95% 许多企业级人工智能应用并未产生可衡量的财务影响,这主要是因为人工智能的输出从未融入到实际工作流程中。问题的关键不在于能否获取人工智能,而在于能否大规模地将其应用于实际运营。
实际上,大多数人工智能系统止步于执行阶段。它们能够识别机会,但如何以及何时采取行动的决定权却掌握在人类手中,而这通常是在系统分散、团队资源紧张且时间紧迫的情况下进行的。在许多情况下,人工智能可以提高感知能力,但并不能提高效率。因此,人工智能应用的下一阶段正在转向能够执行行动的人工智能。
从能回答问题的AI到能行动的AI
能够主动行动的人工智能代表着从被动智能向旨在推动工作进展的系统转变。
智能AI并非止步于提出建议,而是将已批准的行动贯穿整个工作流程:对请求进行分类、分配任务、起草后续跟进、提醒利益相关者、更新系统,并在需要人工判断时上报异常情况。重要的是,以执行为导向的AI并不会取代人工判断。它减少了洞察与执行之间的摩擦:人类定义结果、审批流程和升级路径;AI负责处理那些拖慢团队速度的繁琐工作;并通过审查、审计跟踪和治理机制来确保监督。
这种以人为本的方法对于建立信任至关重要。 皮尤研究中心的研究表明 关于人工智能信任度的研究始终表明,对透明度、问责制和滥用的担忧仍然是人工智能普及应用的主要障碍。负责任的人工智能可以通过使其行为可见、可解释和可控来解决这些担忧。
达到拐点
多种因素正在推动组织超越仅提供答案的人工智能。
- 首先,团队被要求以更少的资源完成更多的工作。劳动力短缺不再是暂时的,而是结构性的。与此同时,各行各业对速度和一致性的期望都在不断提高。
- 其次,基础人工智能模型正变得越来越容易获取。因此,差异化竞争的焦点正从模型选择转向编排——即如何将人工智能集成到日常工作中。 “哈佛商业评论” 在其报道中指出,人工智能的真正价值在于将其嵌入到流程中,而不是叠加在流程之上。
- 最后,不作为的代价正在不断增加。当洞察被搁置或后续工作被忽略时,其下游影响会不断累积。在许多情况下,延迟执行与错误执行同样重要。
在此背景下,仅仅提供信息的AI已不再足够。组织需要能够安全、稳定地执行日常工作的系统,从而减少而非增加摩擦。
高等教育:一个真实的案例
高等教育是这种转变必要性的一个最清晰的例证之一。高等教育生命周期中的互动模式已发生根本性变化。学生期望从首次咨询到毕业都能获得即时、持续的支持。校友寻求的是持续的价值,而非零星的联系。即便人员配备和预算持续紧缩,发展团队仍需发挥更大的影响力,并大规模地建立长期关系。
与此同时,用户参与信号源源不断地涌现:提交的申请、达成的里程碑、参加的活动、捐赠的款项等等。然而,将这些信号转化为及时、协调的行动,仍然严重依赖于跨越分散系统的人工操作。
高等教育领导者越来越关注人工智能 作为必要的 在扩大参与度和学生支持力度的同时,也要谨慎对待治理和数据准备工作。同样地, 其他分析 教育科技和招生趋势凸显了人们对人工智能驱动的生命周期互动日益增长的兴趣,同时也反映出对碎片化系统导致执行缓慢的不满。在这种环境下,仅提供建议的人工智能很快就会达到其局限性。了解哪些人需要联系固然有用,但如何把握最佳时机进行联系以达到最大效果则更具挑战性。
能够主动行动的人工智能通过将信号转化为最佳行动方案,并在整个生命周期中自动执行例行跟进,从而帮助弥合这种脱节。员工可以继续专注于同理心、判断力和复杂的对话,而人工智能则确保互动能够持续且及时地进行。
高等教育尤其具有启发意义,因为其成果取决于信任和人际关系。如果人工智能能够在高等教育环境中负责任地运作,贯穿复杂的生命周期,并在处理学生个人数据和信息的同时保持治理的完整性,那么它将为其他面临类似压力的高风险行业提供蓝图。
犹豫是理性的——在行动之前先设计治理方案。
人们对人工智能自主行动的犹豫是可以理解的。领导者们担心数据质量、过度自动化以及失控,尤其是在受监管或基于信任的环境中。但这些担忧并非无限期搁置的理由。人们常常忽略的是治理在推动人工智能发展中的作用,它本应成为一种推动因素,而非限制因素。
近一半 许多组织报告称,治理和信任框架不足限制了它们从人工智能中实现价值的能力。同一项研究表明,投资于负责任的人工智能实践的公司更有能力扩大其影响力。
如果没有明确的保障措施,人工智能就无法成功执行。从提出建议到最终执行,需要明确规定人工智能可以为哪些对象行事、被授权采取哪些行动、何时需要人工审核以及如何上报异常情况。
能够成功发展的组织会将治理视为产品和流程设计的一部分,而不是事后才考虑的因素。在实践中,这意味着要建立:
- 明确规定了人工智能何时可以独立运行以及何时需要人工签字的审批流程。
- 可审计性和可追溯性,以便对行动进行审查、解释和撤销。
- 明确的升级规则,将不确定性反馈给相关负责人。
- 隐私和数据控制符合监管要求。
这种治理方式不会阻碍人工智能的发展,反而能使其更有信心地采取行动。领导者不应问自己是否负担得起治理,而应问自己是否负担得起因于系统从一开始就未设计治理机制而无法采取行动的人工智能。
2026 年人工智能准备情况
到 2026 年,人工智能成熟度的定义将不再取决于组织是否使用人工智能,而是取决于他们如何有效地让人工智能发挥作用。
具备人工智能能力的机构具有以下几个共同特征:
- 与招生、留存、参与度或筹款提升相关的明确成果目标。
- 包含隐私控制、审批、审计跟踪和升级机制的治理框架。
- 统一的数据和集成使人工智能能够执行操作,而不仅仅是提出建议。
下一阶段的人工智能应用将由那些致力于负责任行动的组织引领,使人工智能能够提高能力、支持更好的结果,并帮助团队以更少的资源完成更多的工作——同时又不失去最重要的人性化元素。










