思想领袖
为什么公司应该遵循基于价值观的AI治理方法

2025年9月,联合国所有成员国首次聚集讨论国际AI治理;许多国家在2月的德里AI影响峰会上再次被代表。该活动导致了两个新的AI治理机构的成立;但这只是一个象征性的成功。
联合国的新机制旨在确保共识:它们避开了军事使用AI等有争议的领域,并缺乏明确的资金来源和执行力。这不应该让经验丰富的观察者感到惊讶。今天的联合国缺乏快速行动或确保其决定得到普遍遵守的能力,使其成为一个难以实现真正改变的论坛。
这符合一个既定的模式。尽管多年来尝试建立AI监管的共识,但并没有达成任何重大的国际协议,从而在各个国家和集团被迫制定自己的规则的空白中。然而,AI的有效治理对于广泛采用、公众信任和以提供持久的社会和经济利益的方式使用至关重要。
临时解决
对于全球公司来说,建立和运营AI系统,这种缺乏共同的治理机制是一个问题。他们希望在全球范围内部署AI系统,但没有两个司法管辖区遵循相同的规则。因此,他们被迫为每个国家创建一个通用的治理框架,然后从头开始重建,以确保遵守当地法律和法规。这种方法会产生大量额外的工作,使AI项目更加昂贵和容易延迟,并削弱全球公司实现规模经济和与用户分享有效工具的能力。
然而,有一种替代方法。对于希望简化其方法的公司来说,最佳选择可能是建立一个AI治理框架,该框架考虑了不同地区的共同道德原则,确保他们在保护个人自由、隐私和安全方面达到高标准。这是一种有力的方式,AI企业可以增加公众对其技术的信任,巩固其客户群,并利用AI的潜在利益。
六项关键价值观
对于任何有兴趣采用基于价值观的AI治理方法的组织,我建议使用以下六项关键价值观:责任、可解释性、透明度、公平性、安全性和可争议性。
我们选择这些价值观,因为它们涵盖了AI系统生命周期的所有主要领域,并且已经在各种国际和国家标准中编纂,如国际标准化组织的ISO/IEC 42001和英国政府人工智能手册。
首先,责任意味着知道谁在AI生命周期的每个阶段负责什么。没有明确的所有权,重要的控制可能会被忽略,因为没有个人或团队承担最终责任。组织应该为AI系统和关键阶段分配高级、指定的所有者——例如,他们的首席AI官——并使用基于风险的治理模型,对第三方工具与内部开发的工具同样严格审查。这意味着了解供应商的条款、限制和责任,就像了解自己的系统一样。
经济合作与发展组织(OECD)在其关于推进AI中的责任制的指导中很好地阐述了这一点,该指导建议组织创建“机制,将AI风险管理过程嵌入更广泛的组织治理中,在组织内和整个AI价值链中促进风险管理文化”。
接下来是可解释性。组织应该能够展示AI系统如何做出决定。这需要记录和跟踪决策过程的机制,以及清晰的系统设计、训练数据和决策过程记录。总的来说,这使得团队能够理解系统从创建到部署的信息来源。
公平性侧重于确保AI系统产生公平的结果,并不复制或放大现有的偏见。没有故意的检查,系统可能会通过提供偏斜的结果造成伤害——尤其是在招聘、医疗保健和刑事司法等高影响力领域。为了减轻这一点,组织应该实施偏见检测措施,定期审查相关群体的输出,并设计能够适应当地非歧视性要求的治理框架。在实践中,这意味着构建系统以满足它们可能遇到的最高法律标准,包括《2010年平等法》和《欧盟基本权利宪章》等法律下的义务。
透明度是关于让用户和监管者清楚地了解情况。人们应该了解何时使用AI、它在决策中扮演什么角色以及它所依据的数据。一个实用的起点是跨AI系统标准化文档,通过内部工具如模型卡支持:提供给机器学习模型的简短文档,解释模型的使用背景、性能评估程序的详细信息以及其他相关信息。没有透明度,用户无法对不公平的结果提出异议,监管者无法有效干预,可能会掩盖有害的影响。
安全性涉及保护AI系统免受未经授权的访问、操纵或意外行为。如果安全性较弱,AI可能会将组织、用户及其数据置于风险之中,暴露于经济和声誉损害之中。组织应该定义性能和准确性阈值,在现实条件下对系统进行压力测试,并纳入红队测试以识别漏洞。
最后,争议性确保人们有一个明确且可访问的方式来挑战或上诉AI驱动的决定。没有它,受影响的用户没有任何补救措施,问题可能永远不会被发现或解决。组织应该在使用时提供报告渠道,分配高级所有者来管理投诉,并确保系统可以在必要时暂停、审查或更新。
基于价值观的框架的好处是什么?
采用基于价值观的AI治理方法有两个有力的理由。首先,构建和部署AI系统的公司有道德责任,确保其不会伤害人们和组织;其次,这是更有效地实现AI在实践中的预期利益的一种方式。
AI系统的用户,无论是企业还是个人,都会对其创造者隐式地信任,不要滥用个人数据或将他们置于不必要的风险之中。当组织违反这种信任时,想要让用户继续使用变得非常困难。最终,除非人们信任AI系统,并且可以看到它们提供的明显利益,否则他们不会接受其引入。这将导致更多的社会和经济分裂,我们将错过许多由此技术带来的机会。
另一方面,公司如果在所有地区(包括监管要求较宽松的地区)都采用基于价值观的框架,可以向客户、投资者和监管者展示,他们的标准高于基本合规性要求。这建立了信任、参与和最终的商业成功。
强大的AI治理是价值创造者,而不是合规负担。它使企业能够更快地将新产品推向市场,降低风险暴露,并以信心在多个市场扩大解决方案。
麦肯锡的《AI现状》报告发现,“CEO对AI治理的监督……是与组织的通用AI使用相关的自我报告的底线影响最相关的因素,”,这凸显了此类方法的商业利益。
除此之外,这只是正确的事情。我们围绕同样的原则构建了全球道德AI政策:先进技术必须为人们和社会服务,而不是相反。这种愿景反映了社会5.0的更广泛愿景:一个以人类为中心的创新模式,旨在将经济进步与解决社会挑战相结合。
如果像AI这样的新兴技术要促进一个更加幸福和谐的社会,它们必须建立在强大的道德基础上。这始于关注不仅仅是组织必须满足的标准,还包括他们希望实现的标准。












