伦理
人工智能伦理原则经过元分析,强调人权

2019 年,人工智能伦理比以往任何时候都更加受到关注。然而,这些讨论似乎很模糊,没有一个统一的方法。相反,不同的公司创建了他们自己的人工智能伦理框架和政策。就人工智能伦理问题达成一致很重要,因为它有助于政策制定者创建和调整政策,也为研究人员和学者的工作提供参考。除此之外,人工智能公司必须了解伦理界限,否则他们将无法避免不道德的人工智能实施。为了更好地了解人工智能伦理趋势,VentureBeats 报道,哈佛大学的 Berkman Klein 中心 进行了一项元分析,对现有的各种人工智能伦理原则和框架进行了分析。
根据分析的作者,研究人员希望通过比较这些原则来寻找重叠和差异。哈佛法学院网络法诊所的助理主任 Jessica Fjeld 解释说,研究团队希望“揭示人工智能未来全球对话中的隐性动力”,这导致了这篇白皮书和相关数据可视化的产生。
在分析过程中,团队检查了来自世界各地、不同类型的组织的 36 个人工智能原则文档。研究结果发现,这些文档中出现了八个反复出现的主题。
隐私和问责制是最常见的两个伦理主题,人工智能安全/安全性也是如此。透明度/可解释性也是一个常见的目标,2019 年有很多尝试使算法更加可解释。公平性/非歧视也是一个伦理焦点,反映了人们对数据偏见的日益增长的担忧。确保人类对技术的控制,而不是将决策权交给人工智能,也被大量提及。职业责任是研究人员发现的第七个常见主题。最后,研究人员发现,人工智能伦理文档中不断提到促进人类价值观。
研究团队在他们的论文和一张附带的 地图 中提供了这些主题在人工智能伦理文档中表现出的定性和定量分析。地图显示了每个主题被提及的位置。
研究团队指出,人工智能伦理讨论的大部分围绕着对人类价值观和权利的关注。正如研究论文所述:
“64% 的文档包含对人权的引用,五个文档(14%)将国际人权作为其整体工作的框架。”
人权和价值观的引用在私营部门团体和民间社会团体制作的文档中更为常见。这表明人工智能私营部门公司不仅仅关注利润,还致力于以道德的方式生产人工智能。同时,政府机构似乎对人工智能伦理的关注较少,政府机构发布的与人工智能相关的文档中,涉及人工智能伦理的文档不到一半。
研究人员还指出,如果他们检查的文档更为近期,则它们更有可能解决八个最突出的主题,而不是仅仅几个。这一事实意味着,关于什么构成道德的人工智能使用的想法正在开始在人工智能伦理讨论的领导者中凝聚。最后,研究人员表示,这些原则在指导人工智能开发方面的成功将取决于它们在整个人工智能开发社区中融入的程度。研究人员在论文中表示:
“此外,原则是治理的起点,而不是终点。单独的一套原则不太可能具有说服力。其影响可能取决于它如何融入更大的治理生态系统,例如相关政策(例如人工智能国家计划),法律,法规,但也包括专业实践和日常例行程序。”
