思想领袖1 week ago
负责任人工智能交付实用指南
人工智能(AI)部署正从早期试点阶段扩展为全面集成的解决方案,推动生产及企业范围的转型。在此背景下,高管们面临一项艰巨任务:将人工智能从概念验证阶段推进到日常运营的核心。这一转变要求他们回答新的问题,范围涵盖如何负责任地开发、部署和使用人工智能,以构建可扩展的可靠基础。 负责任的人工智能关乎确保人工智能有益于人、组织和社会,同时避免造成伤害。尽管人们可能认为这会减缓开发生命周期,但实际上,它能使创新更加强健。推行负责任的人工智能有助于减少代价高昂的失败次数,促进更快的采用和信任,提供符合监管要求的系统,并提升可持续性。 然而,理解组织如何能够开发、部署和采用负责任的人工智能,是确保其基础实践和全面集成的关键。在此,我们提供一份关于企业如何做到这一点的实用指南,确保从最早的设计阶段到部署、监控、风险评估乃至最终停用的全过程都有人类监督。 那些将负责任的人工智能视为事后补救措施的组织,将面临监管风险、声誉损害以及客户信任的侵蚀。相反,那些从一开始就将其嵌入流程的组织,则能更好地实现人工智能的可持续扩展。 确定整合负责任人工智能的五项原则 任何负责任的人工智能战略的核心,都应有一套指导开发、部署、评估和治理的核心原则。这些原则的影响将塑造实际的治理、风险管理和合规实践,从而保障人员安全并保护品牌价值。 对于大型组织而言,他们必须跨团队并与外部合作伙伴协作,以确保其整合。因此,企业可以采用五项关键原则来引导其人工智能计划走向信任、合规和合乎道德的结果。 首先是问责制。每个重要的人工智能系统都必须有人对其结果负责,并且应有个人或团队自始至终承担责任。从一个简单的清单开始,通过自动化实现规模化,开始列出人工智能系统、其目的、数据来源和所有者。制定当出现问题时如何应对的计划也至关重要。必须知道如何暂停、如何调查和缓解问题。 其次,评估人工智能的公平性及其对人们的潜在影响非常重要。不要仅仅依赖技术指标,要意识到人工智能的结果可能因群体而异,并可能无意中使某些人处于不利地位。这对于招聘、贷款或医疗保健等领域的高风险用例尤为关键。尽可能使用数据测试,并纳入人工审查和输出原因说明。 第三,安全性至关重要。针对人工智能系统的威胁不断演变,现在包括提示攻击或基于智能体的攻击。解决这些风险并与安全团队合作模拟这些潜在攻击至关重要。将安全性融入设计,限制人工智能对其他系统和数据的访问,并在发布后持续进行测试。 第四个因素是隐私。这一关切点超越了初始训练数据,隐私应在每个阶段都得到保护。在用户提示、对话日志和人工智能生成的输出中都要考虑隐私,因为它们都可能包含私人信息。设计系统时仅收集必要的数据,设定严格的访问和保留规则,并对高风险应用进行隐私审查。 最后,透明度和提供适应利益相关者需求的控制至关重要。客户需要了解的信息与人工智能开发者不同。或者,用户应知道他们何时在与人工智能互动,并了解其局限性。内部团队需要关于人工智能如何构建及其性能的清晰文档。人工智能系统的透明度有助于促进共同监督和对系统能力的信任。 了解差异:负责任的人工智能与人工智能治理 尽管负责任的人工智能和人工智能治理经常互换使用,但它们存在关键区别。负责任的人工智能是一套贯穿人工智能开发、部署和使用的、用于做出可信决策的整体实践和原则。它侧重于实现诸如上述五项原则等能力,以最小化人工智能的风险并最大化其效益。 另一方面,人工智能治理是一套旨在促成积极成果并减少伤害可能性的政策、程序和实践。它侧重于建立适当的组织和技术控制,以实现负责任和合乎道德的人工智能,通常强调问责制以及遵守法律和组织政策。 当组织理解这两者虽有区别但又相互关联时,他们就能更好地在保持信任和监管准备就绪的同时,负责任地扩展人工智能。此外,虽然有关责任和治理的某些行动是法律要求的,但有些并非如此。例如,某些国家限制女性可从事职业的法律。因此,两者对于全面、平衡的负责任人工智能方法都是必要的。 灵活治理的重要性 随着人工智能的普及,监管机构正在介入,推出超越自愿性准则的治理框架。像欧盟的《人工智能法案》这样的法规,将基于风险的监管置于人工智能治理的核心。该法案并非对技术进行统一监管,而是将人工智能系统划分为多个风险等级,根据不同的用例识别潜在危害。例如,人工智能招聘筛选器与购物推荐引擎。这意味着治理、文档记录和保障措施应与人工智能的应用场景和用途保持一致。 其他司法管辖区也定义了治理人工智能的框架。根据这份IAPP报告,新加坡通过其《人工智能治理模型框架》等工具推广灵活方法,强调测试和透明度而非严格的强制规定。韩国的《人工智能基本法》也将监督与创新空间相结合。而在不同行业,情况也有所不同。金融服务行业长期面临严格的安全和公平标准,而医疗保健人工智能则需要满足医疗器械法规。消费科技产品也受隐私和消费者保护法的约束,每个领域都要求根据其风险状况和社会期望制定相应的法规。 因此,一刀切的人工智能治理方法行不通,因为不同行业和国家领域在危害类型、受影响的利益相关者以及其所处的法律框架方面存在差异。因此,需要灵活性。 如何管理自主人工智能 随着人工智能进入一个新时代,从狭窄的预测引擎转向具有代理能力的人工智能——即能够规划、适应并采取自主行动的系统——这也带来了新的风险。 例如,考虑一个能自主执行金融交易或人力资源决策的代理型人工智能。如果它错误分类一笔交易,或做出带有偏见的招聘推荐,其商业后果将是严重的,从财务损失到声誉损害、监管处罚和法律风险。 《代理型网络系统中的经济与系统性考量》中提出的研究也解释了新兴的代理型网络概念带来的新挑战,该概念作用于多智能体、跨境、机器速度的市场。它概述了一些初步的、方向性的治理杠杆,包括守护/监督代理和机器可读策略,并强调在资源约束不均情况下的包容性采用。 有鉴于此,治理系统需要为人工智能系统在无需人类批准的情况下能自主处理的事务设定限制和控制。它们需要建立明确的护栏,限制对工具和授权功能的访问,并为强制性人工审查设定特定的设计点。工作流程的所有组成部分都应进行测试,包括智能体之间的连接和交互,错误常在此处发生。每个操作都应记录在案以确保可追溯性,并设置控制措施以便在需要时停用系统以管理此风险。 负责任人工智能的未来...