Connect with us

思想领袖

实践指南:如何交付负责任的AI

mm

人工智能(AI)部署已经从早期试验阶段发展到成为完全集成的解决方案,驱动生产和企业范围的转型。在此背景下,高管们面临着一个具有挑战性的任务:将AI从概念验证转移到日常运营的核心。这一转变需要他们回答新的问题,范围从如何开发、部署和使用AI以负责任的方式建立可信的基础,以便于扩展。

负责任的AI 是关于 确保AI有益而不对人、组织和社会造成伤害。虽然人们可能认为它会减慢开发生命周期,但实际上它可以使创新更强大。推出负责任的AI可以帮助减少昂贵的失败,允许更快的采用和信任,提供符合监管的系统,并改善可持续性。

然而,了解组织如何开发、部署和采用负责任的AI是确保其基础实践和完全集成的关键。这里我们提供了一个实践指南,关于公司如何做到这一点,确保从最早的设计阶段到部署、监控、风险评估和最终退役都有人类的监督。

那些将负责任的AI视为事后补充的人将冒着监管风险、声誉损害和客户信任的侵蚀。相反,那些从一开始就将其嵌入的人更有可能以可持续的方式扩展AI。

识别五项原则以集成负责任的AI

在任何负责任的AI战略的核心都有一套核心原则,应该指导开发、部署、评估和治理。这些原则的影响将塑造实际的治理、风险管理和合规实践,以保护人们和保护品牌价值。

对于大型组织,他们必须与团队和外部合作伙伴合作,以确保其集成。因此,有五个关键原则,企业可以采用这些原则来引导其AI计划朝着信任、合规和道德结果的方向发展。

首先是问责。每个重要的AI系统都必须有人负责,从开始到结束。从简单的清单开始,自动化以扩展,并开始列出AI系统、其目的、数据源和所有者。同时,拥有一个计划来处理事情出错的情况也很重要。了解如何暂停、调查和缓解问题是至关重要的。

其次,评估AI的公平性及其对人的潜在影响很重要。不要仅仅依赖技术指标,并意识到AI的结果可能会在不同群体中有所不同,并可能无意中对某些人造成不利。对于高风险的使用场景,例如招聘、贷款或医疗保健,这一点至关重要。尽可能使用数据测试,并包括人类审查和输出的原因。

第三,安全性至关重要。对AI系统的威胁继续演变,包括提示或基于代理的攻击。解决这些风险并与安全团队合作来模拟这些潜在的攻击是至关重要的。将安全性构建到设计中,限制AI访问其他系统和数据,并在启动后继续进行测试。

第四,隐私是一个问题。这个问题超出了初始训练数据,隐私应该在每个阶段都受到保护。考虑用户提示、对话日志和AI生成的输出中的隐私,因为它们都可能包含私人信息。设计系统仅收集必要的数据,设置严格的访问和保留规则,并对高风险应用程序进行隐私审查。

最后,透明度和提供适应利益相关者的控制是必不可少的。客户需要知道的信息与AI开发者不同。另外,用户应该知道他们何时与AI交互,并了解其局限性。内部团队需要有关AI如何构建和其性能的明确文档。AI系统的透明度促进了共享的监督和对系统能力的信任。

了解差异:负责任的AI与AI治理

虽然负责任的AI和AI治理经常被交替使用,但两者之间存在关键差异。负责任的AI是一套全面的实践和原则,用于在AI的开发、部署和使用过程中做出值得信赖的决策。它专注于使能够实现诸如上述五项原则等的能力,以最小化AI的风险和最大化其利益。

另一方面,AI治理是一套政策、程序和实践,旨在实现积极的结果并减少伤害的可能性。它专注于建立适当的组织和技术控制,以实现负责任和道德的AI,通常强调问责和遵守法律和组织政策。

当组织了解到这两者是不同的但又相互关联时,他们更有可能以可持续的方式扩展AI,同时保持信任和监管的准备。另外,虽然一些关于责任和治理的行动是由法律要求的,但有些不是。例如,某些国家对女性在某些领域工作的限制。因此,两者对于负责任的AI的全面和平衡方法都是必要的。

灵活治理的重要性

随着AI的普及,监管机构正在制定超越自愿指南的治理框架。像 欧盟的人工智能法案 这样的法规将基于风险的监管置于AI治理的核心。与其统一监管技术,不同的法案将AI系统分为多个风险级别,这些级别根据不同的使用场景来识别潜在的危害。例如,AI招聘筛选器与购物推荐引擎。因此,治理、文档和保障措施应与AI的背景和应用相一致。

其他司法管辖区也为治理AI制定了框架。根据 IAPP报告,新加坡推崇一种灵活的方法,使用诸如其模型AI治理框架等工具,强调测试和透明度而非严格的命令。韩国的 AI基础法案 也将监督与创新空间相结合。在行业内,这些差异很大。金融服务长期以来一直面临严格的安全和公平标准,而医疗保健AI则有医疗器械法规需要遵守。消费技术产品也受到隐私和消费者保护法的约束,每个领域都需要根据其风险特征和社会期望量身定制的法规。

因此,对于AI治理来说,一刀切的方法是不起作用的,因为行业和国家域的差异在于所涉及的危害类型、受影响的利益相关者以及它们运作的法律框架。因此,需要灵活性。

如何管理自主AI

随着AI进入一个新时代,从狭隘的预测引擎转变为代理AI,能够规划、适应和采取自主行动的系统,这带来了新的风险。

例如,考虑一个自主AI,它自行执行金融交易或人力资源决策。如果它错误地归类交易或做出包含偏见的招聘推荐,业务后果将非常严重,从财务损失到声誉损害、监管处罚和法律责任。

代理网络系统中的经济和系统考虑 中提出的研究也解释了由新兴的代理网络概念带来的新挑战,这种概念在多代理、跨境、机器速度的市场中起作用。它概述了一些初步的、方向性的治理杠杆,包括守护/监督代理和机器可读的政策,强调在不均匀的资源约束下进行包容性的采用。

在此背景下,治理系统需要为AI系统设定界限和控制,规定在没有人类批准的情况下AI系统可以自主处理多少。它们需要建立明确的防护栏,限制访问工具和授权功能,以及允许对特定设计点进行强制性的人类审查。工作流程的所有组件都应进行测试,包括代理之间的连接和交互,因为错误经常在那里发生。每个操作都应记录以实现可追溯性,并建立控制以在需要时停用系统来管理此风险。

负责任的AI的未来

AI提供了前所未有的机会来转变企业的运营、创新、价值交付,而负责任的AI支持这一点。将负责任的AI集成到设计、开发和部署中不仅是一种法律风险和风险缓解策略,也保护和增强品牌声誉,赢得客户和客户的信任,并通过展示对道德创新的承诺来解锁市场优势。

然而,要解锁其益处,公司必须在整个AI系统的生命周期中,从开始到结束,嵌入关键的负责任实践。这包括将道德和治理考虑因素集成到数据战略、隐私和收集、系统设计、开发、透明度和公平性、部署和监控以及部署后和退役中。

对于所有参与AI开发和部署的人来说,命令是明确的:负责任地建设,积极主动地治理,预测今天、明天和以后的风险,以确保AI在不断变化的世界中成功演进。

Dr Heather Domin,HCLTech 负责任人工智能和治理办公室副总裁和负责人,是负责任人工智能领域的领先专家,为全球组织提供有关伦理人工智能治理和实施的建议。