思想领袖
AI的障碍并非失败,而是失败得太慢

AI的障碍并非失败,而是失败得太慢
人工智能(AI)正在改变组织的运营、创新和发展方式。各行各业都在利用AI来简化工作流程、释放新的效率,并支持更快速、更自信的决策。随着AI悄然成为现代生产力的引擎,它帮助组织实现了更高的敏捷性和规模。
然而,尽管AI带来了许多可衡量的好处,一些意想不到的情况正在发生。许多企业正碰壁。一些团队非但没有加速创新,反而陷入了复杂性、风险管理以及对未知日益增长的恐惧之中。
为什么?因为我们的思考方式错了。
AI常常被误解为一种必须完全控制才能被信任的技术。这源于一个错误的信念,即确定性是安全的前提。但这种解读误解了AI的本质及其创造价值的方式。AI是一种旨在通过使用来学习和进化的适应性工具。将其视为应像传统软件一样运行,是对其本质的误解,并削弱了其潜力。
在负责任地利用AI的驱动下,许多组织无意中将风险缓解变成了瓶颈。各行各业的团队在部署AI时犹豫不决,除非他们能够剖析、解释并证明其决策过程的每一层,而这往往到了不切实际的程度。尽管这种程度的审查反映了善意的尽职调查,但它常常违背了AI的根本目的:加速洞察、增强团队能力以及大规模解决问题。
现在是时候重新调整了,从要求全面控制转向一个强调韧性、生产力和实用可解释性的模式——同时不让创新停滞。
对“黑箱”的恐惧正在阻碍进步
人们对不完全理解的系统有一种天然的不适感,而AI工具——尤其是大型生成模型——的运作方式常常难以轻易解释。因此,许多领导者陷入了一个陷阱:如果他们不能完全解释每一个AI决策,那么这个系统就不可信。
因此,许多组织过度设计了监督流程,增加了跨职能审查、合规检查和可解释性审计的层级,即使是针对低风险用例也是如此。当团队将可解释性视为需要打开每一个黑箱时,他们就将AI实施困在了无尽的审查循环中。这造成了一种“运营瘫痪”,团队变得如此害怕用AI做错事,以至于他们完全停止行动,导致动力持续减弱、计划停滞,最终错失机会。
问题不在于控制系统的意图,而在于认为风险缓解必须等同于控制。在实践中,为AI系统设计韧性而非完美,是一种更有效的方法。关键是要放弃程序化的方法,转而采用基于结果的思维。
AI中的韧性意味着接受错误会发生,并建立能够检测和纠正错误的防护栏。这意味着将对话从如何防止每一个可能的失败,转向如何确保在事情偏离轨道时能够快速检测和干预。
大多数现代系统的构建都基于一个认识:某种程度的错误会发生。例如,网络安全工具并不被期望是100%不可穿透的。它们的设计初衷就不是如此。相反,它们被设计用于检测、响应并建立快速恢复协议。同样的期望也应适用于AI。
要求对每一个AI决策都完全透明是不切实际的,并且可能对价值创造产生反作用。相反,组织必须倡导一种“仪表盘级别的可解释性”,它提供足够的上下文和监督来检测错误并应用保障措施,同时又不拖累企业创新的步伐。
不要过度复杂化AI部署
组织应在AI实施中拥抱完全互操作性,无论用例如何。完全互操作性非但不是干扰,反而能确保无缝集成,并在各系统间释放更大价值。未来,在各企业中,我们很可能会看到虚拟的AI代理大军协同工作,朝着共同目标前进。
这种思维方式旨在根据风险水平调整可解释性的尺度——停止将每一个AI用例都当作在操作自动驾驶汽车来对待。团队可以通过设计具有生产力、可问责性且符合人类意图的AI系统来实现这一点,同时避免过度复杂化部署。
一些实用的策略包括:
- 在人类已感吃力的领域部署AI: 在复杂、高容量的领域使用AI来增强人类决策,例如资源分配、任务优先级排序或积压工作管理,这些领域速度和规模比绝对确定性更重要。
- 定义AI成功指标: 与其试图解释每一个模型,不如定义好的结果是什么样的。时间线是否在改善?返工是否在减少?用户是否更频繁地接受AI建议?这些指标比深入挖掘模型如何做出决策的细节,更能清晰地展示AI的运行效果。
- 建立置信度阈值: 设定AI输出何时可以自动接受、标记或发送给人工审查的容忍度,并建立一个反馈循环,帮助系统随时间学习和改进。
- 培训团队提出正确的问题: 与其让每个团队都成为AI专家,不如专注于培训他们提出正确的问题,例如AI被用来解决什么问题、哪些风险最重要,以及如何监控有效性。
- 优先考虑人类推理: 即使是最好的AI系统也能从人类监督中受益。构建允许人们验证、纠正或覆盖AI的工作流程,以此建立共同的责任制。
这种方法可以比作驾驶汽车。我们大多数人并不理解变速箱如何工作、燃料燃烧如何驱动加速,或者传感器如何检测附近车辆,但这并不妨碍我们开车。我们所依赖的是仪表盘:一个简化的界面,提供我们安全操作所需的信息,如速度、燃油量和维护警报。
AI系统的治理也应如此。我们不需要每次引擎运行时都打开引擎盖。我们需要一套清晰的指标,来显示何时出现问题、何时可能需要人工干预以及下一步该采取什么措施。这种模式使组织能够专注于重要的监督工作,而不会淹没在技术复杂性中。
停止自我设限
AI永远不会完美无缺。如果组织以人类团队都无法达到的完美标准来要求它,他们就有可能失去重新构想工作、加速决策和释放整个企业潜力的机会。
通过专注于韧性而非控制,拥抱仪表盘级别的可解释性,并根据具体情况调整监督,我们可以停止对AI的过度思考,并开始用它创造更多成功。












