思想领袖
人工智能的障碍不是失败,而是失败得太慢。

人工智能的障碍不是失败,而是失败得太慢。
人工智能 (AI) 正在改变组织的运营、创新和发展方式。各行各业的组织都在利用 AI 来简化工作流程、提高效率并支持更快、更自信的决策。随着 AI 逐渐成为现代生产力的驱动力,它帮助组织实现更高的敏捷性和规模化。
然而,尽管人工智能带来了诸多可衡量的益处,但一些意想不到的情况正在发生。许多企业正遭遇瓶颈。一些团队非但没有加速创新,反而深陷于复杂性、风险管理以及对未知的日益增长的恐惧之中。
为什么?因为我们思考的方式错了。
人们常常误解人工智能,认为它必须完全受控才能值得信赖。这种误解源于一种错误的观念,即确定性是安全的前提。但这种解读忽略了人工智能的本质及其价值所在。人工智能是一种自适应工具,旨在随着使用不断学习和进化。将其视为传统软件的行为模式,是对人工智能本质的误解,也低估了它的潜力。
在努力负责任地运用人工智能的过程中,许多组织无意间将风险规避变成了瓶颈。各行各业的团队都犹豫是否要部署人工智能,除非他们能够剖析、解释并论证其决策过程的每一层,而且这种做法往往到了不切实际的地步。尽管这种程度的审查体现了良好的尽职调查意图,但它常常违背了人工智能的初衷:加速洞察、增强团队能力并大规模解决问题。
现在是时候重新调整策略了,不再追求完全控制,而是转向强调韧性、生产力和实际可解释性的模式——同时又不停止创新。
对黑箱的恐惧阻碍了进步
人们天生会对不完全理解的系统感到不安,而人工智能工具——尤其是大型生成模型——的运行方式往往难以解释。因此,许多领导者陷入了一个误区:如果他们无法完全解释人工智能的每一个决策,就无法信任这个系统。
因此,许多组织过度设计监管流程,即使是低风险用例,也增加了多层跨职能审查、合规性检查和可解释性审计。当团队将可解释性视为打开所有黑匣子的必要步骤时,他们就会将人工智能的实施陷入无休止的审查循环中。这会造成一种“运营瘫痪”,团队因为害怕在使用人工智能时犯错而停止一切行动,导致势头不断减弱、项目停滞不前,最终错失良机。
问题不在于控制系统的初衷,而在于人们误以为风险缓解必须等同于控制。实际上,设计人工智能系统时,注重韧性而非完美性才是更有效的策略。关键在于摒弃程序化思维,转而采用结果导向的思考方式。
人工智能的韧性意味着接受错误在所难免,并建立能够检测和纠正错误的防护机制。这意味着讨论的重点要从如何预防所有可能的故障,转移到如何确保在出现偏差时能够快速检测并干预。
大多数现代系统在设计时都考虑到了一定程度的错误会发生。例如,网络安全工具并非旨在完全避免错误。 100% 坚不可摧它们并非为此而设计。相反,它们的设计目标是检测、响应并制定快速恢复方案。同样的道理也适用于人工智能。
要求对每一项人工智能决策都完全透明既不切实际,也可能适得其反,阻碍价值创造。相反,企业必须倡导“仪表盘级可解释性”,在提供足够背景信息和监督机制的同时,检测错误并采取安全措施,避免企业创新停滞不前。
不要把人工智能部署复杂化
无论具体应用场景如何,组织都应在人工智能部署中全面拥抱互操作性。全面的互操作性不仅不会分散注意力,反而能确保无缝集成,并释放跨系统的更大价值。未来,我们或许会在企业中看到由众多人工智能代理组成的虚拟大军,它们协同工作,朝着共同的目标努力。
这种理念的核心在于根据风险级别合理调整可解释性——不再将每个人工智能应用案例都视为驾驶自动驾驶汽车。团队可以通过设计高效、负责且符合人类意图的人工智能系统来实现这一点,同时避免部署过于复杂。
一些切实可行的策略包括:
- 在人类都难以应对的领域部署人工智能: 在资源分配、任务优先级排序或积压工作管理等复杂、高容量领域,利用人工智能来增强人类的决策能力,在这些领域,速度和规模比完全的确定性更重要。
- 定义人工智能成功指标: 与其试图解释每个模型,不如明确定义理想的结果是什么。时间是否缩短?返工是否减少?用户是否更频繁地接受人工智能的建议?这些指标比深入研究模型决策的细节更能清晰地展现人工智能的运行状况。
- 设定置信阈值: 设定人工智能输出可以被自动接受、标记或送交人工审核的容差范围,并建立反馈循环,以帮助系统随着时间的推移学习和改进。
- 培训团队提出正确的问题: 与其让每个团队都成为人工智能专家,不如专注于训练他们提出正确的问题,例如人工智能正在解决什么问题、哪些风险最重要以及如何监控其有效性。
- 优先考虑人类推理: 即使是最好的AI系统也需要人工监督。构建允许人们验证、纠正或覆盖AI的工作流程,以此建立共同责任机制。
这种方法可以比作开车。我们大多数人并不了解变速器的工作原理、燃料燃烧如何产生加速,或者传感器如何探测附近的车辆,但这并不会阻止我们开车。我们依赖的是仪表盘:一个简化的界面,它提供我们安全驾驶所需的信息,例如速度、油量和保养提醒。
人工智能系统也应采用同样的管理方式。我们无需每次引擎启动都打开引擎盖检查。我们需要的是一套清晰的指标,用于显示何时出现异常、何时需要人工干预以及下一步应采取哪些措施。这种模式使组织能够专注于真正重要的监管环节,而不会被复杂的技术细节所淹没。
别再给自己设限
人工智能永远不可能完美无缺。如果企业对人工智能设定过高的完美标准,而这种标准是任何人类团队都无法达到的,那么他们就有可能错失重新构想工作方式、加快决策速度以及释放企业整体潜力的机会。
通过关注韧性而非控制,采用仪表盘级别的可解释性,并根据上下文调整监督,我们可以停止对人工智能的过度思考,并开始利用人工智能取得更大的成功。












