思想领袖
确保负责任的人工智能的 5 个基本支柱

我们看到人工智能/机器学习系统的巨大增长,用于处理新数字经济中产生的海量数据。 然而,随着这种增长,有必要认真考虑人工智能的道德和法律影响。
当我们将越来越复杂和重要的任务委托给人工智能系统时,例如自动贷款审批,我们必须绝对确定这些系统是负责任的和值得信赖的。 减少人工智能中的偏见已成为许多研究人员关注的重点领域,并且具有巨大的道德影响,我们赋予这些系统的自主权也是如此。
负责任的人工智能的概念是一个重要的框架,可以帮助建立对人工智能部署的信任。 负责任的人工智能有五个核心基础支柱。 本文将探讨这些内容以帮助您构建更好的系统。
1. 重现性
软件开发界有句老话:“嘿,它可以在我的机器上运行”。在机器学习和人工智能中,这句话可以调整为:“嘿,它可以在我的数据集上运行。”这就是说,机器学习模型往往是一个黑匣子。许多训练数据集可能存在固有偏差,例如采样偏差或确认偏差,这些偏差会降低最终产品的准确性。
为了帮助 AI/ML 系统更具可重复性,从而变得准确且值得信赖,第一步是标准化 MLOps 管道。 即使是最聪明的数据科学家也有他们最喜欢的技术和库,这意味着特征工程和生成的模型因人而异。 通过使用 MLflow 等工具,您可以标准化 MLOps 管道并减少这些差异。
另一种帮助人工智能/机器学习系统更具可重复性的方法是使用所谓的“黄金数据集”。 这些是具有代表性的数据集,本质上充当新模型在发布到生产之前的测试和验证。
2。 透明度
如前所述,许多机器学习模型,尤其是神经网络,都是黑匣子。 为了让它们更负责任,我们需要让它们更容易解释。 对于诸如决策树之类的简单系统,很容易理解系统如何以及为何做出某个决策,但是,随着人工智能系统的准确性和复杂性的提高,其可解释性往往会下降。
有一个名为“可解释性”的新研究领域,它试图为神经网络和深度学习等复杂的人工智能系统带来透明度。 这些使用代理模型来复制神经网络的性能,但它们也尝试对哪些特征是重要的给出有效的解释。
这一切都会带来公平; 你想知道为什么做出某个决定并确保这个决定是公平的。 您还希望确保不考虑不适当的特征,以便偏见不会渗透到您的模型中。
3。 问责制
也许负责任的人工智能最重要的方面是问责制。 关于这个话题有很多讨论,甚至在政府部门也是如此,因为它涉及哪些政策将推动人工智能的成果。 这种政策驱动的方法决定了人类应该在哪个阶段参与循环。
问责制需要强大的监控器和指标来帮助指导政策制定者和控制人工智能/机器学习系统。 问责制确实将可重复性和透明度联系在一起,但它需要人工智能道德委员会形式的有效监督。 这些委员会可以处理政策决策,决定衡量什么是重要的,并进行公平性审查。
4. 安全性
人工智能安全重点关注数据的机密性和完整性。 当系统处理数据时,您希望它们处于安全的环境中。 您希望数据在数据库中静态时以及通过管道调用时都进行加密,但在将数据作为纯文本输入机器学习模型时仍然存在漏洞。 同态加密等技术通过允许在加密环境中进行机器学习训练来解决这个问题。
另一方面是模型本身的安全性。 例如,模型反转攻击允许黑客学习用于构建模型的训练数据。 还有模型中毒攻击,即在模型训练时将不良数据插入模型中并完全损害其性能。 测试您的模型是否存在此类对抗性攻击可以确保其安全可靠。
5。 隐私
Google 和 OpenMined 是最近优先考虑人工智能隐私的两个组织,并且 OpenMined 最近举办了一次关于这个主题的会议。 随着 GDPR 和 CCPA 等新法规的出台,以及可能出台的更多法规,隐私将在我们训练机器学习模型的方式中发挥核心作用。
确保您以隐私意识方式处理客户数据的一种方法是使用联合学习。这种去中心化的机器学习方法在本地训练不同的模型,然后将每个模型聚合在一个中央中心,同时保持数据的安全、可靠和私密。另一种方法是引入统计噪声,以免泄露客户的个人价值。这使您可以使用聚合数据,从而确保个人数据完整且无法供算法使用。
保持人工智能的责任
最终,保持人工智能的责任取决于每个设计人工智能/机器学习系统的组织。 通过有意识地追求负责任人工智能的这五个方面中的每一个方面的技术,您不仅可以从人工智能的力量中受益,还可以以值得信赖和直接的方式做到这一点,这将使您的组织、客户和监管机构放心。












