Connect with us

思想领袖

AI的障碍并非失败,而是失败得太慢

mm
A conceptual photograph showing a hand approaching a transparent glass interface with a glowing green speedometer gauge and an upward-pointing arrow. The background shows an out-of-focus, tangled knot of black wires and red light.

AI的障碍并非失败,而是失败得太慢

人工智能(AI)正在改变组织的运营、创新和发展方式。各行各业都在利用AI来简化工作流程、释放新的效率,并支持更快速、更自信的决策。随着AI悄然成为现代生产力的引擎,它帮助组织实现了更高的敏捷性和规模。

然而,尽管AI带来了许多可衡量的好处,一些意想不到的情况正在发生。许多企业正碰壁。一些团队非但没有加速创新,反而陷入了复杂性、风险管理以及对未知日益增长的恐惧之中。

为什么?因为我们的思考方式错了。

AI常常被误解为一种必须完全控制才能被信任的技术。这源于一个错误的信念,即确定性是安全的前提。但这种解读误解了AI的本质及其创造价值的方式。AI是一种旨在通过使用来学习和进化的适应性工具。将其视为应像传统软件一样运行,是对其本质的误解,并削弱了其潜力。

在负责任地利用AI的驱动下,许多组织无意中将风险缓解变成了瓶颈。各行各业的团队在部署AI时犹豫不决,除非他们能够剖析、解释并证明其决策过程的每一层,而这往往到了不切实际的程度。尽管这种程度的审查反映了善意的尽职调查,但它常常违背了AI的根本目的:加速洞察、增强团队能力以及大规模解决问题。

现在是时候重新调整了,从要求全面控制转向一个强调韧性、生产力和实用可解释性的模式——同时不让创新停滞。

对“黑箱”的恐惧正在阻碍进步

人们对不完全理解的系统有一种天然的不适感,而AI工具——尤其是大型生成模型——的运作方式常常难以轻易解释。因此,许多领导者陷入了一个陷阱:如果他们不能完全解释每一个AI决策,那么这个系统就不可信。

因此,许多组织过度设计了监督流程,增加了跨职能审查、合规检查和可解释性审计的层级,即使是针对低风险用例也是如此。当团队将可解释性视为需要打开每一个黑箱时,他们就将AI实施困在了无尽的审查循环中。这造成了一种“运营瘫痪”,团队变得如此害怕用AI做错事,以至于他们完全停止行动,导致动力持续减弱、计划停滞,最终错失机会。

问题不在于控制系统的意图,而在于认为风险缓解必须等同于控制。在实践中,为AI系统设计韧性而非完美,是一种更有效的方法。关键是要放弃程序化的方法,转而采用基于结果的思维。

AI中的韧性意味着接受错误会发生,并建立能够检测和纠正错误的防护栏。这意味着将对话从如何防止每一个可能的失败,转向如何确保在事情偏离轨道时能够快速检测和干预。

大多数现代系统的构建都基于一个认识:某种程度的错误会发生。例如,网络安全工具并不被期望是100%不可穿透的。它们的设计初衷就不是如此。相反,它们被设计用于检测、响应并建立快速恢复协议。同样的期望也应适用于AI。

要求对每一个AI决策都完全透明是不切实际的,并且可能对价值创造产生反作用。相反,组织必须倡导一种“仪表盘级别的可解释性”,它提供足够的上下文和监督来检测错误并应用保障措施,同时又不拖累企业创新的步伐。

不要过度复杂化AI部署

组织应在AI实施中拥抱完全互操作性,无论用例如何。完全互操作性非但不是干扰,反而能确保无缝集成,并在各系统间释放更大价值。未来,在各企业中,我们很可能会看到虚拟的AI代理大军协同工作,朝着共同目标前进。

这种思维方式旨在根据风险水平调整可解释性的尺度——停止将每一个AI用例都当作在操作自动驾驶汽车来对待。团队可以通过设计具有生产力、可问责性且符合人类意图的AI系统来实现这一点,同时避免过度复杂化部署。

一些实用的策略包括:

  • 在人类已感吃力的领域部署AI: 在复杂、高容量的领域使用AI来增强人类决策,例如资源分配、任务优先级排序或积压工作管理,这些领域速度和规模比绝对确定性更重要。
  • 定义AI成功指标: 与其试图解释每一个模型,不如定义好的结果是什么样的。时间线是否在改善?返工是否在减少?用户是否更频繁地接受AI建议?这些指标比深入挖掘模型如何做出决策的细节,更能清晰地展示AI的运行效果。
  • 建立置信度阈值: 设定AI输出何时可以自动接受、标记或发送给人工审查的容忍度,并建立一个反馈循环,帮助系统随时间学习和改进。
  • 培训团队提出正确的问题: 与其让每个团队都成为AI专家,不如专注于培训他们提出正确的问题,例如AI被用来解决什么问题、哪些风险最重要,以及如何监控有效性。
  • 优先考虑人类推理: 即使是最好的AI系统也能从人类监督中受益。构建允许人们验证、纠正或覆盖AI的工作流程,以此建立共同的责任制。

这种方法可以比作驾驶汽车。我们大多数人并不理解变速箱如何工作、燃料燃烧如何驱动加速,或者传感器如何检测附近车辆,但这并不妨碍我们开车。我们所依赖的是仪表盘:一个简化的界面,提供我们安全操作所需的信息,如速度、燃油量和维护警报。

AI系统的治理也应如此。我们不需要每次引擎运行时都打开引擎盖。我们需要一套清晰的指标,来显示何时出现问题、何时可能需要人工干预以及下一步该采取什么措施。这种模式使组织能够专注于重要的监督工作,而不会淹没在技术复杂性中。

停止自我设限

AI永远不会完美无缺。如果组织以人类团队都无法达到的完美标准来要求它,他们就有可能失去重新构想工作、加速决策和释放整个企业潜力的机会。

通过专注于韧性而非控制,拥抱仪表盘级别的可解释性,并根据具体情况调整监督,我们可以停止对AI的过度思考,并开始用它创造更多成功。

Beth Weeks is the executive vice president of development at Planview. She leads the software development team for Planview’s products that deliver Strategic Portfolio Management, Professional Services Automation, Enterprise Architecture, and Ideation capabilities.

Beth has served in software executive roles for the last 20 years and helped software companies transform their enterprise on-premises products to well-architected Software as a Service (SaaS) and Platform as a Service (PaaS) solutions. She also has experience building highly productive and collaborative teams, which are globally distributed through North America, EMEA, and India.

Before joining Planview in 2017, Beth was senior vice president of product engineering and cloud operations at WP Engine, leading product development and cloud operations for multiple global data centers hosting more than 500,000 websites. She also has held leadership positions at Zilliant, Vignette (acquired by Open Text), and Intergraph.