Connect with us

思想领袖

人工智能的障碍不是失败,而是失败得太慢。

mm
A conceptual photograph showing a hand approaching a transparent glass interface with a glowing green speedometer gauge and an upward-pointing arrow. The background shows an out-of-focus, tangled knot of black wires and red light.

人工智能的障碍不是失败,而是失败得太慢。

人工智能(AI)正在改变组织的运营、创新和增长方式。跨行业,组织都在使用人工智能来简化工作流程、解锁新的效率,并支持更快、更自信的决策。随着人工智能悄悄成为现代生产力的引擎,它帮助组织实现更大的灵活性和规模。

然而,尽管人工智能有许多可衡量的益处,但有些意想不到的事情正在发生。许多企业正在遇到瓶颈。有些团队不是加速创新,而是陷入复杂性、风险管理和对未知的恐惧中。

为什么?因为我们对人工智能的思考方式是错误的。

人工智能经常被误解为一种必须完全可控的技术,才能被信任。这源于这样的误解:确定性是安全的前提。但是,这种解释忽略了人工智能的本质和它如何提供价值。人工智能是一种适应性工具,旨在通过使用学习和演化。把它当作传统软件来对待是一种对其性质的误解,并削弱了其潜力。

在努力负责任地利用人工智能的过程中,许多组织无意中地将风险缓解变成了瓶颈。跨行业,团队在部署人工智能之前犹豫不决,除非他们可以解析、解释和证明每一层其决策过程,往往到了不切实际的程度。虽然这种程度的审查反映了善意的尽职调查,但它经常破坏了人工智能的目的:加速洞察、放大团队和大规模解决问题。

是时候重新校准了,通过转变为一种强调韧性、生产力和实用性解释的模型——而不停止创新。

对黑盒子的恐惧正在阻碍进展

人们对他们不完全理解的系统有一种自然的不适感,人工智能工具——尤其是大型生成模型——往往以难以解释的方式运行。因此,许多领导者陷入了陷阱:如果他们无法完全解释每个人工智能决策,系统就不能被信任。

因此,许多组织过度设计了监督流程,添加了多层次的跨职能审查、合规检查和解释性审计,甚至对于低风险的使用场景。当团队将解释性视为需要打开每个黑盒子时,他们将人工智能实施陷入了无尽的审查循环。这造成了“操作瘫痪”,团队变得如此害怕在人工智能中做错事,以至于他们根本不做任何事情,导致动力逐渐消失、计划停滞,并最终失去机会。

问题不在于控制系统背后的意图;而在于风险缓解必须等同于控制的假设。在实践中,设计人工智能系统以韧性而非完美为目标是一种更有效的方法。关键是放弃程序化的方法,转向基于结果的思考。

人工智能中的韧性意味着接受错误会发生,并建立防护栏来检测和纠正它们。这意味着将对话从如何防止每一种可能的失败转变为如何确保快速检测和干预,当事情出错时。

大多数现代系统都是建立在这样的理解基础上:一定程度的错误会发生。例如,网络安全工具不被期望是100%不可入侵的。它们不是被设计为这样的。相反,它们被设计为检测、响应和创建快速恢复协议。同样的期望也应该适用于人工智能。

要求对每个人工智能决策都有完全的可见性是不切实际的,并且可能会对价值创造产生反作用。相反,组织必须倡导“仪表盘级别的解释性”,提供足够的背景和监督来检测错误和应用保障措施,而不至于阻碍企业创新。

不要过度复杂化人工智能部署

组织应该在人工智能实施中拥抱全部的互操作性,无论使用场景如何。与其成为一种干扰,全部互操作性可以确保无缝集成并解锁系统间更大的价值。在未来,跨企业,可能会看到虚拟的人工智能代理大军共同为共同的目标而努力。

这种思维方式是关于将解释性与风险水平相匹配——停止将每个人工智能使用场景都当作操作自主车辆一样对待。团队可以通过设计生产力、责任感和与人类意图相符的人工智能系统来实现这一点,而不必过度复杂化部署。

一些实用的策略包括:

  • 部署人工智能到人类已经苦苦挣扎的地方:使用人工智能来增强人类的决策,在复杂、高容量的领域,如资源分配、任务优先级或待办事项管理,在那里速度和规模比完全确定性更重要。
  • 定义人工智能成功指标:与其尝试解释每个模型,不如定义什么是良好的结果。时间表是否正在改进?返工是否正在减少?用户是否更经常接受人工智能建议?这些指标提供了人工智能工作效果的更清晰的图景,而不是深入研究模型如何做出决策的细节。
  • 建立信心阈值:设置人工智能输出可以被自动接受、标记或发送给人类审查的容忍度,并建立反馈循环来帮助系统学习和改进。
  • 训练团队提出正确的问题:与其让每个团队都成为人工智能专家,不如专注于训练他们提出正确的问题,例如人工智能被用来解决什么问题、什么风险最重要,以及如何监测有效性。
  • 优先考虑人类推理:即使是最好的人工智能系统也能从人类的监督中受益。建立工作流程,允许人们验证、纠正或覆盖人工智能,以创建共享的责任感。

这种方法可以与驾驶汽车相比。我们大多数人不理解变速箱如何工作,燃料燃烧如何驱动加速,或者传感器如何检测附近的车辆,但这并不妨碍我们驾驶。我们依赖的是仪表盘:一个简化的界面,提供了我们需要的信息来安全操作,例如速度、燃料水平和维护警报。

人工智能系统应该以同样的方式管理。我们不需要每次发动引擎时都打开引擎盖。需要的是一组指标,显示何时出现问题、人类干预可能需要以及下一步该做什么。这一模型允许组织专注于监督哪里重要,而不会被技术复杂性淹没。

停止妨碍自己

人工智能永远不会完美无缺。如果组织要求人工智能达到人类团队无法达到的完美标准,他们就有可能失去重新想象工作、加速决策和在整个企业中解锁潜力的机会。

通过专注于韧性而非控制,拥抱仪表盘级别的解释性,并根据上下文量身定制监督,我们可以停止过度思考人工智能,开始创造更多的成功。

Beth Weeks 是 Planview 的开发执行副总裁。她领导 Planview 的软件开发团队,为 Planview 的产品提供战略投资组合管理、专业服务自动化、企业架构和创意能力。

Beth 在过去 20 年中一直担任软件高管职务,并帮助软件公司将其企业内部产品转变为架构良好的软件即服务 (SaaS) 和平台即服务 (PaaS) 解决方案。她还具有建立高效和协作团队的经验,这些团队遍布北美、欧洲、中东和非洲以及印度。

在 2017 年加入 Planview 之前,Beth 曾是 WP Engine 的产品工程和云运营高级副总裁,负责多个全球数据中心的产品开发和云运营,这些数据中心托管了超过 500,000 个网站。她还曾在 Zilliant、Vignette(被 Open Text 收购)和 Intergraph 担任领导职务。