Connect with us

思想领袖

AI 洗白正将企业推向失败

mm

当今的每一家企业都感受到拥有一个AI故事的压力。董事会希望看到它。投资者期待它。客户会询问它。但这种压力催生了一股日益增长的“AI洗白”浪潮——自动化变成了“AI”,分析被重新包装为“机器学习”,脚本化的聊天机器人突然成了“智能体AI”。 这一幕我早已见过。今天的AI格局让人想起云采用的早期阶段,当时公司在架构或运营模式远未准备好之前,就将本地系统标榜为“云原生”。同样的模式正在重演,而后果将更为严重。 云洗白的弊端是低效和浪费开支。AI洗白的弊端则直接面向客户。我们部署的不是会在崩溃或错误代码中失效的后台基础设施。我们部署的是直接与客户互动的系统——而这些系统会悄无声息、自信满满地失败,并且常常发生在最关键的情况下。 这可能就是为什么,根据MIT Sloan的一项研究,绝大多数AI试点项目从未进入生产阶段。而那些进入生产阶段的,也常常表现不佳——不是因为AI能力不足,而是因为部署它的组织跳过了测试、验证和运营就绪性这些艰苦工作。

AI 洗白背后的真正驱动力

害怕被视为落伍是这种行为的主要驱动力。组织吹捧AI,是将其作为创新的信号,而非真实能力的反映。为了赶上产品发布时间表,他们绕过了测试和验证,没有为满足客户需求而量身定制的明确开发流程。 投资者的期望加剧了这个问题。上市公司和风险投资支持的公司面临着展示AI集成和AI驱动增长叙事的最后期限。事实上,90%的高管报告称感受到了来自投资者采用AI的压力。这种压力鼓励公司将现有能力重新包装为AI,而不是构建真正新颖的、AI原生的产品。 结果就是各方都产生了错误的期望——投资者、客户,以及负责使其运作的内部团队。它创造了一种创新的假象,而实际上,这只是品牌包装。

为何智能体AI会打破这种假象

智能体AI是炒作破灭的地方。随着68%的组织预计在今年集成AI智能体,清算的时刻即将快速到来。 大多数企业尚未应对的根本问题是:传统软件是确定性的。相同的输入,相同的输出,每次都一样。你可以编写测试,复现错误,并预测行为。AI智能体是非确定性的——同一个问题每次都可能产生不同的答案。这不是错误。这是其架构使然。它彻底改变了你测试、监控和信任这些系统的方式。 你的整个QA基础设施都是建立在可复现性的假设之上的。对于生成式AI,这个假设不复存在。你可以运行相同的测试一百次,得到一百种不同的响应——有些正确,有些细微错误,有些危险地错误。适用于IVR和脚本化聊天机器人的测试框架无法迁移到智能体AI。而大多数企业尚未构建新的框架。 这正是AI洗白暴露无遗的地方。用精心策划的输入和可预测的路径进行一场光鲜的演示是一回事;处理一个真实客户则是另一回事——他可能会打断、自相矛盾、说蹩脚的英语,并且在晚上11点打电话询问一个他自己都不完全理解的账单纠纷。模型是在数据上训练的,而不是在人类互动中情感化、混乱且不可预测的现实上训练的。 当这些系统失败时,它们不会像传统软件那样失败。没有崩溃。没有错误代码。AI听起来很自信,但却是错的。它能妥善处理95%的情况,却灾难性地错误处理了最重要的那5%。与损坏的网页表单不同,这些故障会在成千上万的客户中复制,直到有人注意到。

AI 故障藏身之处

客户体验是智能体AI最复杂的环境之一——也是AI洗白暴露得最明显的地方。Gartner最近预测,到2027年底,超过40%的智能体AI项目将被取消,原因是成本不断上升、风险控制不足或业务价值不明确。客户体验是主要原因之一。 客户旅程很少涉及单一系统。它跨越对话式AI、IVR系统、知识库、CRM平台和人工座席。混合旅程很常见——每次互动在得到解决之前,都可能跨越多个系统。 这是我反复看到的情况:每个系统单独看起来都运行正常,但端到端的旅程仍然失败。AI智能体正确解读了一个问题,但CRM中的信息过时,给出了错误的答案。AI受到指责,但真正的问题是数据碎片化和所有权碎片化。 碎片化的技术栈也意味着碎片化的可见性。没有客户旅程的单一视图。与传统软件有明确的错误信号不同,当智能体AI崩溃时,无论准确性如何,它都表现得自信满满。升级规则触发得太晚。客户陷入循环。系统继续运行——而故障只有通过客户的沮丧或流失才能显现。 这就是无声故障问题。AI没有崩溃。它正在自信地、一次一个互动地、大规模地侵蚀信任。

从 AI 炒作转向运营纪律

应对AI洗白的答案不是更好的营销。而是组织对待AI方式的根本转变——从他们宣布的一项功能,转变为他们运营的基础设施。 我花了25年时间构建和扩展企业系统,包括创立一家AI测试自动化公司。我在每一波技术浪潮中看到的模式都是相同的。获胜的公司不是最先采用的,而是运营得最好的。对于AI而言,这意味着:

衡量生产性能,而非演示性能

基于受控环境评估AI无法告诉你任何关于真实世界行为的信息。重要的指标是升级准确性、解决率、策略合规性,以及跨越数千次非脚本化互动的客户满意度——而不是精心挑选的演示场景。

在扩展之前修复基础

AI无法解决破碎的工作流程——它会放大它们。不一致的路由、不完整的知识库、过时的CRM数据——这些问题不会因为添加AI而消失。它们会变得更糟、更快,并且规模更大。工作流就绪性必须在AI部署之前完成,而不是之后。

测试完整旅程,而非单个组件

大多数企业在孤立状态下验证单个系统,但故障出现在交接环节。跨越语音、数字和AI渠道的端到端旅程测试,是捕捉客户实际体验到的集成故障的唯一方法。

为信任而构建,而不仅仅是效率

用户会拒绝那些让他们陷入死循环、提供错误答案或使他们无法联系到人工的AI。那些以牺牲信任为代价来优化效率的企业,将失去他们试图更廉价服务的客户。

AI 洗白的终结

随着AI更深地嵌入运营工作流程,企业将无法再躲在炒作背后。超过一半的投资者现在期望在六个月内从AI获得投资回报。如果没有为混乱、不可预测的现实世界——而非光鲜的演示环境——而设计的系统,这种时间表是不可能实现的。 要求正在从仅仅将AI作为产品功能,转变为证明它在最关键的时刻、大规模、在生产环境中、面对真实客户时能够正常工作。 AI洗白或许能赢得短期关注。但它无法在与现实的接触中幸存。

Sushil Kumar is the CEO of Cyara, the global leader in AI-powered customer experience assurance. Previously, Sushil was the co-founder and CEO of RelicX.ai, a generative AI test automation pioneer that was acquired. He has 25+ years of experience building and scaling category-defining AI, DevOps, and cloud solutions adopted by thousands of enterprises worldwide.