思想领袖
人工智能治理正在失败,因为公司正在解决错误的问题

企业正在迅速地将人工智能部署到各种业务功能中 – 从客户服务到 分析 到运营和内部工作流程 – 所有这一切都是为了保持竞争力。但是,日益增加的劳动力重组和自动化投资表明,组织如何迅速地重新设计工作以适应人工智能能力。尽管采用速度很快,治理却落后了。
行业 研究 表明,只有大约三分之一使用人工智能的组织拥有正式的合规或治理策略。结果是创新和监督之间的差距正在扩大。而挑战不仅仅是治理努力缓慢或不完整。这是一个更深层次的结构问题。
许多组织试图治理人工智能输出,而没有重新设计最初产生人工智能驱动决策的系统。治理在部署后添加必然会产生摩擦。但是,治理嵌入在决策中就成为业务的赋能者。区别在于人工智能是否成为竞争优势或持续的运营和声誉风险来源。
那么,如何弥合创新和监督之间的差距?让我们深入探讨。
创新-治理差距实际上是一个系统差距
一般来说,组织并不是故意忽视治理问题。相反,他们试图在从未设计为大规模管理自动决策的传统组织结构中应用治理框架。
人工智能计划通常由于几个原因而比合规和风险过程更快。人工智能风险的所有权通常不明确,责任分散在IT、安全和合规部门。因此,决策权分散在委员会和审查小组中,分散了责任。监督机制通常在系统部署后才开始发挥作用,而不是在自动化决策开始影响客户和运营之前。
这些结构性差距导致了可预测的结果:由于有偏见或有缺陷的输出而产生的监管风险,自动化系统无声失败时的运营中断,以及当人工智能决策与公司价值观或客户期望相冲突时的声誉损害。问题不在于缺乏努力。这是一个系统设计问题。
组织不能改善人工智能结果而不重新设计决策、责任和监督如何在整个企业中发挥作用。
治理必须是关于对齐,而不是限制
同时,治理讨论往往停滞不前,因为它们被视为限制创新。团队经常将治理视为减慢部署速度或增加合规负担的东西。这种框架自然会产生抵抗。
实际上,治理应该是关于 对齐 的。人工智能驱动的决策必须与领导意图保持一致。风险容忍度必须明确并在团队中理解。责任必须明确分配并可见。
客户、合作伙伴和监管机构越来越多地根据组织如何负责任地部署创新来评判他们。这就是有效的治理发挥作用的地方。它通过确保决策透明、建立明确的责任和升级路径以及提供人工智能输出与业务目标和道德期望保持一致的信心来支持创新。当它被正确嵌入时,它成为管理功能而不是合规义务。
无法将治理添加到一个破碎的系统中
许多企业开始治理计划,通过将政策和审批流程添加到现有的组织结构中。虽然这是出于好意,但这种方法往往会保留碎片化并减慢决策速度,而没有解决根本问题。更有效的方法是从根本问题开始:谁拥有人工智能风险决策?谁有权批准或停止部署当风险出现时?
从那里,治理可以通过实际步骤来实现。组织必须评估人工智能在哪里已经影响决策。然后,人工智能的使用应映射到监管义务和业务风险,这反过来确保风险审查和批准成为部署工作流的一部分,而不是事后补充。
连续监控和升级过程也是必要的,以便尽早发现故障。团队需要人工智能风险、责任和负责任使用的培训,这样治理就成为日常运营的一部分。最后,可扩展的治理框架和支持平台有助于在人工智能使用扩展时保持一致性。
目标不是减慢决策流程,而是重新设计它们,以便负责任的决策能够更快、更少地出错地发生。
强大的治理改变行为
当人工智能计划失败时,组织经常责怪员工绕过政策或在没有监督的情况下部署工具。实际上,员工行为通常反映系统激励和结构设计。
如果团队因速度而受到奖励,而没有明确的责任,那么人工智能工具将在没有充分审查的情况下部署。这导致了影子人工智能采用的传播,特别是当治理流程不明确或繁琐时。员工自然会选择最少阻力的路径 – 这通常会导致糟糕的治理实践。
相反,当责任变得可见,决策权明确时,行为会自然改变。矛盾的是,具有更强大治理结构的组织往往会更快地部署人工智能,因为风险更早地浮现,决策权明确,最后阶段的意外事件不会迫使部署延迟或回滚。正是那些推迟治理的公司经常经历公开的失误、监管审查和最终会减慢创新步伐的昂贵补救努力。
人工智能治理最终是一个领导决策
人工智能治理 不能作为创新发生后添加的叠加层来成功。它必须成为组织如何做出决策、分配责任和管理风险的组成部分。高管们现在面临着一个熟悉的选择:继续优化传统的管理系统,同时接受反复出现的治理失败,或者重新设计责任和监督结构以支持人工智能驱动的运营。
将治理视为战略基础设施的组织 — 投资监督、责任和可扩展框架 — 将能够更快、更自信地部署人工智能,同时保护利益相关者的信任。在人工智能日益影响业务成果的时代,治理不是创新障碍。它是允许创新负责任扩张的基础。
