思想领袖
为什么企业中的AI代理遇到知识问题,而不是技术问题

去年,S&P Global 报告 表示,放弃大多数AI项目的公司比例从17%增加到42%。此前,Gartner 发布了一份关于代理AI项目的预测:2027年底前,40%的项目将被关闭。
根据麦肯锡公司 的说法,几乎有一半的公司正在尝试使用AI代理。但是,有多少公司已经从试验阶段转移到实际运营?大约十分之一。
行业中有很多解释:模型的幻觉,缺乏治理,高GPU成本,专家短缺。所有这些都是真正的挑战。但是在与知识管理系统和AI代理合作三年后,我越来越多地看到一种不同的模式:公司向代理提供不完整的数据。
作为教育科学博士,我认为这是一个知识转移问题。如果一个人无法解释他们如何做出决定,他们的逻辑无法转移到新员工身上,更不用说转移到AI代理身上。让我们探讨为什么会发生这种情况以及如何解决它。
公司实际运营知识的存储位置
问一个大公司员工知识存储在哪里,你会得到一个长长的列表:Confluence,SharePoint,LMS平台,FAQ机器人,Slack存档。看起来这似乎是RAG系统可以用来检索所有必要信息的栈。但是,缺少一个至关重要的元素——存在于人们脑海中的知识。从未被写下来的知识。
为什么这是一个问题?
因为AI代理需要不仅仅是访问知识库,还需要理解上下文,选择行动,并完成任务——它需要经验丰富的专家的决策逻辑。
想象一个新支持代理接收到一个请求:客户声称已经为一项服务付费,但尚未激活。脚本包括一套标准步骤,最后一步是询问客户等待。但是,代理注意到这种情况很不寻常:客户已经联系过支持团队两次,系统中有多个类似案例。他们联系了一位更有经验的同事,同事解释说,他们以前见过这种情况,问题很可能是支付网关、银行和内部激活系统之间的故障——因此,应将该案例升级到另一个部门。
对于AI代理来说,这种逻辑是不可见的。它可能可以访问脚本、票据历史和支付状态(如果这些数据源连接),但它不知道经验丰富的操作员认为哪些信号是决定性的。专家并不是故意隐瞒这种知识,他们只是无法正式化或将其分解为步骤:哪些选项被排除,为什么选择了某个操作,在什么时候很明显标准场景不适用。认知科学家称这种现象为 隐性知识 —— 即使其持有者可能没有完全意识到的隐含知识。
这是为什么瓶颈不在文档访问层面,而是在将专家经验转换为适合训练AI代理的格式的阶段。
如何解决这个问题
要使AI代理有效工作,仅仅将LLM连接到企业知识库是不够的,因为成功的决策往往依赖于隐性知识。首先,必须创建一个知识层,包括结构化的决策标准。
在知识管理中,这个过程被称为 外化 —— 将隐性知识转换为显性知识。换句话说,公司需要了解不仅仅是专家做什么,还有他们的思考过程。这通常是通过与顶级专家进行一系列深入的采访来完成的。与他们一起应该是有人擅长提问:方法论师、知识工程师或教学设计专家。他们的任务不是写下“基于专家说的话的指令”,而是重建选择选项的标准,分解边缘案例,并揭示专家已经自动处理的典型错误。
这里,AI可以提供显著的帮助:转录采访,分组类似案例,将专家解释转换为草稿场景,并生成验证情景。然而,最后的结构仍需要由专家审查和批准。
结果应该是一个可用的知识库。它可以同时用于两个方向:培训新员工和配置AI代理。两个场景都依赖于同一基础:来自顶级专家的结构化经验。
另一种选择是继续依赖于RAG在Confluence上某种方式重建从未记录的逻辑的假设。在实践中,这几乎从不奏效:系统可能会检索相关文档,但它不会学习如何在依赖于上下文和经验的情况下做出决定。
如何检查代理是否准备好工作
您已经将专家知识转换为场景并配置了代理。但是,代理的合理答案和实际操作性能之间存在差距——这种差距只会在验证过程中变得明显。在这个阶段,确定是否已经捕获了所有必要的知识至关重要。
一种实用的方法是基于场景的测试。您为代理提供来自专家日常工作的真实案例:客户对收费提出异议,收到一封不寻常的电子邮件,或出现不符合基本脚本的请求。结果不应由另一个LLM评估,而应由帮助构建知识库的同一位专家评估。如果代理采取的路径与经验丰富的专家不同,这并不总是意味着模型很弱。更常见的是,意味着一个关键规则、异常或示例缺失。在这种情况下,过程从头开始:方法论师与专家澄清逻辑,知识库更新,指令完善,测试重复。
这个周期不是一个可选步骤,而是一个定义代理之间差异的阶段:一个仅仅“展示潜力”的代理和一个真正执行工作的代理。这是一个缓慢且不太令人印象深刻的过程:它不会产生一个令人惊艳的演示,并且需要专家的参与。但是,系统地完成这个过程的人最终会拥有真正减轻专家日常工作量的代理。那些跳过这一步的人,六个月后经常会发现自己处于Gartner预测的统计中:40%的项目将被取消。
代理AI不会因为技术而失败——现代模型已经能够执行复杂的任务。它失败是因为公司“喂”它不完整的知识。在2024-2025年,这仍然可以被解释为实验阶段。在2026年,这个错误已经带来了巨大的成本。












