存根 什么是负责任的人工智能? 原则、挑战和好处 - Unite.AI
关注我们.

AI 101

什么是负责任的人工智能? 原则、挑战和好处

mm
更新 on
一个人站在田野里,手里拿着地球仪。

负责任的AI (RAI) 是指设计和部署透明、公正、负责任并遵循道德准则的人工智能系统。 随着人工智能系统变得更加强大和普遍,确保它们以负责任的方式开发并遵循安全和道德准则至关重要。

健康、交通、网络管理和监视 安全关键型人工智能应用 系统故障可能会造成严重后果。 大公司意识到 RAI 对于降低技术风险至关重要。 然而,根据 MIT 斯隆管理学院/BCG 的一份包含 1093 名受访者的报告, 54% 的公司缺乏负责任的人工智能专业知识和人才。

尽管思想领袖和组织已经制定了负责任的人工智能原则,但确保人工智能系统负责任的开发仍然面临挑战。 让我们详细探讨一下这个想法:

负责任人工智能的 5 条原则

1。 公平

技术人员应该设计程序,以便人工智能系统公平地对待所有个人和群体,没有偏见。 因此,公平性是高风险决策应用的首要要求。

公平 定义为:

“检查对不同人口群体的影响,并选择群体公平的几种数学定义之一,以充分满足所需的法律、文化和道德要求。”

2。 问责制

问责意味着开发和部署人工智能系统的个人和组织应该对其决策和行动负责。 部署人工智能系统的团队应确保其人工智能系统是透明的、可解释的、可审计的,并且不会危害社会。

问责制包括 XNUMX所 components:

  1. 背景(需要问责的目的)
  2. 范围(责任主体)
  3. 代理人(谁负责?)
  4. 论坛(责任方必须向其报告)
  5. 标准(问责标准)
  6. 流程(问责方法)
  7. 影响(问责的后果)

3。 透明度

透明度意味着人工智能系统决策背后的原因是清晰且易于理解的。 透明的人工智能系统是可以解释的。

根据 可信赖人工智能评估清单(ALTAI),透明度具有三个关键要素:

  1. 可追溯性(数据、预处理步骤和模型可访问)
  2. 可解释性(决策/预测背后的推理清晰)
  3. 开放式沟通(关于AI系统的限制)

4。 隐私

隐私是负责任的人工智能的主要原则之一。 它指的是个人信息的保护。 这一原则确保人们的个人信息是在征得同意的情况下收集和处理的,并且不落入不满者之手。

正如最近所证明的那样,有一个 Clearview 的案例,这是一家为执法部门和大学制造面部识别模型的公司。 英国的数据监管机构 起诉 Clearview AI 索赔 7.5 万英镑 未经同意从社交媒体收集英国居民的图像并创建一个包含 20 亿张图像的数据库。

5. 安全性

安全意味着确保人工智能系统安全且不会威胁社会。 人工智能安全威胁的一个例子是 对抗攻击。 这些恶意攻击会诱骗机器学习模型做出错误的决策。 对于负责任的人工智能来说,保护人工智能系统免受网络攻击至关重要。

负责任的人工智能的 4 大挑战和风险

1。 偏压

与年龄、性别、国籍和种族相关的人类偏见可能会影响数据收集,可能导致人工智能模型出现偏见。 美国商务部研究 发现面部识别人工智能会错误识别有色人种。 因此,在执法中使用人工智能进行面部识别可能会导致错误逮捕。 此外,制作公平的人工智能模型也具有挑战性,因为 21 不同的参数来定义它们。 因此,需要权衡; 满足一个公平的人工智能参数意味着牺牲另一个。

2. 可解释性

可解释性是开发负责任的人工智能的一个关键挑战。它指的是理解机器学习模型如何得出特定的结论。

深度神经网络缺乏可解释性,因为它们作为具有多层隐藏神经元的黑匣子运行,使得决策过程难以理解。 这对于医疗保健、金融等高风险决策来说可能是一个挑战。

此外,形式化 ML 模型的可解释性具有挑战性,因为它 主观 和 特定领域.

3。 治理

治理是指监督人工智能系统开发和部署的一组规则、政策和程序。 最近,人工智能治理讨论取得了重大进展,组织提出了框架和道德准则。

道德准则 欧盟值得信赖的人工智能澳大利亚人工智能道德框架及 经合组织人工智能原则 是人工智能治理框架的例子。

但近年来人工智能的快速发展可能会超过这些人工智能治理框架。 为此,需要有一个框架来评估人工智能系统的公平性、可解释性和道德性。

4.法规

随着人工智能系统变得越来越普遍,需要制定法规来考虑道德和社会价值观。 制定不抑制人工智能创新的监管是负责任人工智能的一项关键挑战。

即使有《通用数据保护条例》(GDPR)、《加州消费者隐私法》(CCPA)和《个人信息保护法》(PIPL)作为监管机构,人工智能研究人员发现 97% 的欧盟网站未能遵守 GDPR 法律框架要求。

此外,立法者还面临着 重大挑战 就人工智能的定义达成共识,包括经典的人工智能系统和最新的人工智能应用。

负责任的人工智能的 3 大好处

1. 减少偏差

负责任的人工智能可以减少决策过程中的偏见,建立对人工智能系统的信任。减少人工智能系统中的偏见可以提供公平公正的医疗保健系统,并减少基于人工智能的偏见 金融服务 等等

2. 增强透明度

负责任的人工智能打造透明的人工智能应用程序,建立对人工智能系统的信任。 透明的人工智能系统 降低错误和误用的风险。 增强的透明度使审计人工智能系统变得更加容易,赢得利益相关者的信任,并可以带来负责任的人工智能系统。

3。 更好的安全性

安全的人工智能应用程序可确保数据隐私,产生可信且无害的输出,并且免受网络攻击。

科技巨头喜欢 微软 和 谷歌处于开发人工智能系统最前沿的公司制定了负责任的人工智能原则。 负责任的人工智能确保人工智能的创新不会对个人和社会造成损害。

思想领袖、研究人员、组织和法律当局应不断修订负责任的人工智能文献,以确保人工智能创新的安全未来。

更多AI相关内容,请访问 团结.ai.