Connect with us

思想领袖

填补人工智能信任鸿沟

mm

人工智能的采用已经到了一个至关重要的转折点。企业正在热情地拥抱人工智能,这是因为人工智能有望在运营效率方面实现数量级的改进。

最近的 Slack 调查 发现,人工智能的采用继续加速,工作场所的人工智能使用最近增加了 24%,而 96% 的受访高管认为“将人工智能整合到整个业务运营中是紧迫的。”

然而,人工智能的实用性和对其潜在不利影响的日益增长的焦虑之间存在着 日益扩大的鸿沟。只有 7% 的桌面工作者相信 人工智能的输出 足够可靠,可以帮助他们完成工作相关的任务。

这种差距在高管对人工智能集成的热情和员工对以下因素的怀疑之间的鲜明对比中显现出来:

立法在建立信任中的作用

为了解决这些多方面的信任问题,立法措施越来越被视为必要的步骤。立法可以在规范人工智能的开发和部署方面发挥关键作用,从而增强信任。主要的立法方法包括:

  • 数据保护和隐私法:实施严格的数据保护法,确保人工智能系统负责地处理个人数据。像欧盟的《通用数据保护条例》(GDPR)这样的法规为透明度、数据最小化和用户同意设定了先例。特别是,GDPR 第 22 条 保护数据主体免受自动决策的潜在不利影响。最近,欧洲联盟法院的判决确认了个人不受自动决策的权利。在 Schufa Holding AG 的案例中,一位德国居民因自动信用决策系统被拒绝银行贷款,法院认为第 22 条要求组织实施措施 保护与人工智能技术使用相关的隐私权
  • 人工智能法规:欧盟已经批准了欧盟人工智能法案(EU AIA),旨在根据人工智能系统的风险水平来监管其使用。该法案包括针对高风险人工智能系统的强制性要求,涵盖数据质量、文档、透明度和人工监督等领域。人工智能法规的主要优点之一是促进人工智能系统的透明度和可解释性。此外,EU AIA 建立了明确的责任框架,确保人工智能系统的开发者、运营商和用户对其行为和人工智能部署的结果负责。这包括 补救机制,如果人工智能系统造成损害。当个人和组织对其行为负责时,这将增强人们对人工智能系统的信任。

标准化倡议以培养可信任人工智能的文化

公司不需要等待新法律的实施来确定其流程是否符合道德和可信任的指导方针。人工智能法规与新兴的人工智能标准化倡议一起发挥作用,赋予组织在人工智能系统的整个生命周期中实施负责任的人工智能治理和最佳实践的能力,包括设计、实施、部署和最终的退役。

美国国家标准与技术研究所(NIST)已经开发了 人工智能风险管理框架,以指导组织管理人工智能相关风险。该框架围绕四个核心功能构建:

  • 了解人工智能系统及其运行的背景。这包括定义人工智能系统的目的、利益相关者和潜在影响。
  • 量化人工智能系统相关的风险,包括技术和非技术方面。这涉及评估系统的性能、可靠性和潜在偏见。
  • 实施策略以减轻已识别的风险。这包括制定政策、程序和控制措施,以确保人工智能系统在可接受的风险水平内运行。
  • 建立治理结构和责任机制,以监督人工智能系统及其风险管理流程。这涉及定期审查和更新风险管理策略。

针对生成式人工智能技术的进步,NIST 还发布了人工智能风险管理框架:生成式人工智能配置文件该文件提供了关于减轻与基础模型相关的特定风险的指导。这些措施包括防止恶意用途(例如虚假信息、降级内容、仇恨言论)以及专注于公平、隐私、信息安全、知识产权和可持续性的人工智能的道德应用。

此外,国际标准化组织(ISO)和国际电工委员会(IEC)联合开发了 ISO/IEC 23894,这是一项全面的人工智能风险管理标准。该标准提供了一种系统的方法来识别和管理人工智能生命周期中的风险,包括风险识别、风险严重性评估、风险缓解或避免以及持续监控和审查。

人工智能和公众信任的未来

展望未来,人工智能和公众信任的未来可能取决于几个关键因素,这些因素对于所有组织来说都是必不可少的:

  • 进行全面风险评估以识别潜在的合规问题。评估人工智能系统的道德影响和潜在偏见。
  • 建立一个跨职能团队,包括法律、合规、IT 和数据科学专业人员。该团队应负责监测法规变化,并确保人工智能系统遵守新法规。
  • 建立一个包括政策、程序和角色的人工智能管理结构,以管理人工智能计划。确保人工智能操作和决策过程的透明度。
  • 进行定期内部审计以确保遵守人工智能法规。使用监控工具跟踪人工智能系统的性能和遵守法规标准的情况。
  • 教育员工关于人工智能伦理、法规要求和最佳实践。提供持续的培训课程,以便员工了解人工智能法规和合规策略的变化。
  • 保持人工智能开发过程、数据使用和决策标准的详细记录。准备好生成可以提交给监管机构的报告,如果需要的话。
  • 与监管机构建立关系,并参与公开咨询。对拟议的法规提供反馈,并在需要时寻求澄清。

上下文化人工智能以实现可信任人工智能

最终,可信任人工智能取决于数据的完整性。生成式人工智能对大型数据集的依赖并不等同于输出的准确性和可靠性;如果有什么不同的话,它与标准是相反的。检索增强生成(RAG)是一种创新技术,它 “将静态语言模型与上下文特定数据相结合。可以将其视为一个非常了解情况的助手。一个将查询上下文与综合知识库中的特定数据进行匹配的助手。” RAG使组织能够提供上下文特定的应用程序,以满足隐私、安全、准确性和可靠性期望。RAG通过从知识库或文档存储库中检索相关信息来提高生成响应的准确性。这样,模型就可以根据准确和最新的信息生成内容。

RAG使组织能够构建专用的人工智能应用程序,这些应用程序具有很高的准确性、上下文感知和适应性,以改善决策、增强客户体验、简化运营并获得显著的竞争优势。

填补人工智能信任鸿沟需要确保人工智能的透明度、责任感和道德使用。虽然没有单一的答案来维持这些标准,但企业有策略和工具可供使用。实施强大的数据隐私措施并遵守法规标准可以建立用户的信心。定期审计人工智能系统以发现偏见和不准确性可以确保公平性。增强大型语言模型(LLM)以构建专用人工智能可以通过整合专有知识库和数据源来建立信任。与利益相关者就人工智能的能力和局限性进行沟通也可以培养信心和接受度。

可信任人工智能并非易事,但它是我们未来至关重要的承诺。

Andrew Pery 是全球智能自动化公司 ABBYY 的 AI Ethics Evangelist。他拥有 Northwestern University Pritzker School of Law 的法学硕士学位,并获得了 Distinction,并且是认证的数据隐私专业人员。 Pery 拥有超过 25 年的经验,领导全球领先技术公司的技术管理项目。他的专业领域是智能文档处理自动化和流程智能,特别是在 AI 技术、应用软件、数据隐私和 AI 道德方面具有丰富的专业知识。