Connect with us

思想领袖

AI 洗白正在让企业走向失败

mm

每个企业今天都感到有一个 AI 故事的压力。董事会希望看到它。投资者期待它。客户询问关于它。但是这种压力已经创造了一个日益增长的 “AI 洗白” 波潮 – 其中自动化成为 “AI”,分析被重新命名为 “机器学习”,脚本化聊天机器人突然成为 “代理 AI”。

我以前见过这样的情景。今天的 AI 景观与 云采用早期 相似,当时公司将本地系统标记为 “云原生”,尽管他们的架构或运营模式还没有准备好。同样的模式现在正在展开,其后果将更糟。

与云洗白相比,下行的结果是低效和浪费的支出。与 AI 洗白相比,下行的结果是面向客户的。我们不是部署后台基础设施,它会崩溃或显示错误代码。我们部署的是直接与客户交互的系统 – 而这些系统会默默地、自信地、经常在最重要的案例中失败。

这可能是为什么,根据 MIT 斯隆研究,绝大多数 AI 试点项目从未进入生产阶段。而那些进入生产阶段的项目经常低于预期 — 不是因为 AI 不够强大,而是因为部署它的组织跳过了测试、验证和运营准备的艰苦工作。

AI 洗白背后的真正驱动力

恐惧是被视为落后的驱动力。组织将 AI 作为创新信号,而不是真正能力的反映。他们绕过测试和验证以满足产品发布时间表,没有明确的开发流程以满足客户需求。

投资者期望放大了这个问题。上市公司和风险投资支持的公司面临展示 AI 集成和 AI 驱动增长故事的截止日期。事实上,90% 的高管报告称他们感到来自投资者的压力,要求采用 AI。 这种压力鼓励公司将现有的能力重新命名为 AI,而不是构建真正的、AI 本地化的产品。

结果是到处都有虚假的期望 — 对于投资者、客户和负责使其运作的内部团队。它创造了一个创新幻觉,而实际上,它只是品牌。

为什么代理 AI 打破了幻觉

代理 AI 是那里炒作破灭的地方。随着 68% 的组织预计今年将集成 AI 代理,清算即将到来。

这里有一个基本问题,大多数企业尚未解决:传统软件是确定性的。相同的输入,相同的输出,每次都一样。你可以编写一个测试,重现一个 bug,并预测行为。AI 代理是非确定性的 – 同一个问题可以每次产生不同的答案。这不是一个 bug。这是架构。而这改变了测试、监控和信任这些系统的所有事情。

您的整个 QA 基础设施都是建立在可重复性的假设之上的。对于生成式 AI,这个假设已经消失。你可以运行同一个测试一百次,得到一百个不同的响应 – 有些正确,有些微妙地错误,有些危险地错误。适用于 IVR 和脚本化聊天机器人的测试框架不适用于代理 AI。大多数企业还没有建立新的测试框架。

这是 AI 洗白被揭露的地方。展示一个精心制作的演示,带有精心策划的输入和可预测的路径是一回事。处理一个真正的客户,他打断、自相矛盾、说着破碎的英语,并在 11 点钟打电话讨论他不完全理解的账单纠纷,这是另一回事。模型是训练在数据上的,而不是训练在人类互动的感情、混乱和不可预测的现实上的。

当这些系统失败时,它们不会像传统软件那样失败。没有崩溃,没有错误代码。AI 听起来自信,但却是错误的。它处理了 95% 的案例,但灾难性地处理了 5% 最重要的案例。与一个破碎的 web 表单不同,这些失败在任何人注意到之前都会在成千上万的客户中复制。

AI 故障隐藏的地方

客户体验是代理 AI 最复杂的环境之一 – 也就是 AI 洗白最明显的地方。Gartner最近预测,2027 年底之前,超过 40% 的代理 AI 项目将被取消,原因是成本增加、风险控制不力或商业价值不明确。CX 是主要原因之一。

客户旅程很少涉及单个系统。它跨越对话式 AI、IVR 系统、知识库、CRM 平台 和人类代理。混合旅程很常见 – 每次交互可能会跨越多个系统才能达到解决方案。

我反复看到的是:每个系统看起来都能单独正常工作,但最终的旅程仍然会失败。一个 AI 代理正确解释了一个问题,但 CRM 有过时的信息并提供了错误的答案。AI 被指责,但真正的问题是碎片化的数据和碎片化的所有权。

碎片化的技术栈也意味着碎片化的可见性。没有单一的客户旅程视图。与传统软件有明确的错误信号不同,当代理 AI 故障时,它会表现出自信的样子,无论其准确性如何。升级规则触发太晚。客户被困在循环中。系统继续运行 – 而故障只会通过客户的沮丧或流失变得可见。

这是沉默故障问题。AI 没有崩溃。它自信地侵蚀着信任,一次交互一次地,在规模上。

从 AI 炒作转向运营纪律

解决 AI 洗白的答案不是更好的营销。它是组织对待 AI 的根本转变,从一个要宣布的功能到一个要运营的基础设施。

我花了 25 年时间构建和扩展企业系统,包括创立一家 AI 测试自动化公司。我在每个技术浪潮中看到的模式都是相同的。获胜的公司不是最先采用它们的公司,而是最能运营它们的公司。以下是 AI 的运营情况:

衡量生产性能,而不是演示性能

根据受控环境评估 AI 告诉你关于真实世界行为的信息。重要的指标是升级准确性、解决率、政策合规性和客户满意度,跨越成千上万的非脚本交互 – 而不是精心挑选的演示场景。

在扩大规模之前修复基础

AI 不会解决破碎的工作流程 – 它会放大它们。在路由不一致、知识库不完整、CRM 数据过时 – 这些问题不会在添加 AI 后消失。它们会变得更糟糕、更快、更大规模。工作流准备必须在 AI 部署之前完成,而不是之后。

测试完整的旅程,而不是单个组件

大多数企业在隔离中验证单个系统,但故障出现在交接处。跨语音、数字和 AI 通道的端到端旅程测试是唯一捕捉客户实际经历的集成故障的方法。

建立信任,而不仅仅是效率

用户会拒绝将他们困在死胡同、提供错误答案或使他们无法联系到人类的 AI。优化效率而不是信任的企业将会失去他们试图更便宜地服务的客户。

AI 洗白的终结

随着 AI 更深入地嵌入到运营工作流中,企业将不再能够隐藏在炒作之后。 超过半数的投资者现在期望在六个月内从 AI 中获得投资回报率。在这种时间表下,没有为现实世界设计的系统是不可能的 – 不是为精心制作的演示环境设计的。

要求正在从简单地拥有 AI 作为产品功能转变为证明它在最重要的时候、在规模上、在生产中、与真实客户一起有效地工作。

AI 洗白可能会赢得短期的关注。它不会在现实面前幸存。

苏希尔·库马尔是 Cyara 的CEO,Cyara 是全球领先的AI驱动的客户体验保障公司。之前,苏希尔是RelicX.ai的联合创始人和CEO,RelicX.ai是一家被收购的生成式AI测试自动化先驱。他拥有25+年的经验,建立和扩展了被全球数千家企业采用的人工智能、DevOps和云解决方案。