存根 什么是可解释的人工智能? - 联合人工智能
关注我们.

AI 101

什么是可解释的人工智能?

更新 on
图片:Unsplash 上的 DeepMind

随着人工智能 (AI) 变得越来越复杂并在社会中广泛采用,最关键的一组流程和方法是可解释的 (AI),有时称为 XAI。 

可解释的人工智能可以定义为:

  • 一组帮助人类用户理解和信任机器学习算法结果的过程和方法。 

正如你所猜测的,这种可解释性非常重要,因为人工智能算法控制了许多领域,这伴随着偏见、错误算法和其他问题的风险。 通过实现透明度和可解释性,世界可以真正利用人工智能的力量。 

顾名思义,可解释的人工智能有助于描述人工智能模型、其影响和潜在偏差。 它还在表征人工智能驱动的决策过程中的模型准确性、公平性、透明度和结果方面发挥着作用。 

当今的人工智能驱动型组织应始终采用可解释的人工智能流程,以帮助建立对生产中人工智能模型的信任和信心。 可解释的人工智能也是在当今人工智能环境中成为一家负责任的公司的关键。

由于当今的人工智能系统非常先进,人类通常会执行计算过程来追溯算法如何得出结果。 这个过程变成了“黑匣子”,意味着无法理解。 当这些无法解释的模型直接从数据中开发出来时,没有人能够理解它们内部发生了什么。 

通过可解释的人工智能了解人工智能系统如何运行,开发人员可以确保系统按预期运行。 它还可以帮助确保模型符合监管标准,并为模型提供挑战或改变的机会。 

图片来源:Matt Turek 博士/DARPA

AI 和 XAI 之间的区别

一些关键差异有助于将“常规”AI 与可解释的 AI 区分开来,但最重要的是,XAI 实现了特定的技术和方法,有助于确保 ML 过程中的每个决策都是可追踪和可解释的。 相比之下,常规人工智能通常使用机器学习算法得出结果,但不可能完全理解算法是如何得出结果的。 就常规人工智能而言,检查其准确性极其困难,从而导致失去控制、问责制和可审计性。 

可解释人工智能的好处 

对于任何希望采用可解释人工智能的组织来说,都有很多好处,例如: 

  • 更快的结果: 可解释的人工智能使组织能够系统地监控和管理模型以优化业务成果。 可以持续评估和改进模型性能并微调模型开发。
  • 降低风险: 通过采用可解释的人工智能流程,您可以确保您的人工智能模型可解释且透明。 您可以管理法规、合规性、风险和其他要求,同时最大限度地减少手动检查的开销。 所有这些也有助于降低意外偏见的风险。 
  • 建立信任: 可解释的人工智能有助于建立对生产人工智能的信任。 AI模型可以快速投入生产,可以确保可解释性和可解释性,并且可以简化模型评估过程并使其更加透明。 

可解释的人工智能技术

所有组织都应该考虑一些 XAI 技术,它们包含三种主要方法: 预测准确度, 确保端到端决策理解

三种方法中的第一种, 预测准确度,对于在日常运营中成功使用人工智能至关重要。 可以进行模拟,并且可以将 XAI 输出与训练数据集中的结果进行比较,这有助于确定预测准确性。 实现这一目标的一种更流行的技术称为局部可解释的模型无关解释(LIME),这是一种通过机器学习算法解释分类器预测的技术。 

第二种方法是 确保端到端,这是通过限制决策方式以及缩小机器学习规则和特征的范围来实现的。 最常见的追踪技术之一是 DeepLIFT,即深度学习重要功能。 DeepLIFT 将每个神经元的激活与其参考神经元进行比较,同时展示每个激活神经元之间的可追踪链接。 它还显示了它们之间的依赖关系。 

第三种也是最后一种方法是 决策理解,与其他两种方法不同,它以人为本。 决策理解涉及教育组织,特别是与人工智能合作的团队,使他们能够理解人工智能如何以及为何做出决策。 这种方法对于建立系统信任至关重要。 

可解释的人工智能原理

为了更好地理解 XAI 及其原则,隶属于美国商务部的国家标准研究院 (NIST) 提供了可解释人工智能的四个原则的定义: 

  1. 人工智能系统应该为每个输出提供证据、支持或推理。 
  2. 人工智能系统应该给出用户可以理解的解释。 
  3. 该解释应准确反映系统用于得出其输出的过程。 
  4. 人工智能系统应该只在其设计的条件下运行,当它对结果缺乏足够的信心时,它不应该提供输出。 

这些原则可以进一步组织为: 

  • 有意义的: 为了实现有意义的原则,用户应该理解所提供的解释。 这也可能意味着,在不同类型的用户使用人工智能算法的情况下,可能会有多种解释。 例如,就自动驾驶汽车而言,一种解释可能是……“人工智能将路上的塑料袋归类为石头,因此采取行动避免撞到它。” 虽然这个示例适用于驾驶员,但对于寻求纠正问题的人工智能开发人员来说并不是很有用。 在这种情况下,开发人员必须了解为什么会出现错误分类。 
  • 解释准确度: 与输出准确性不同,解释准确性涉及人工智能算法准确地解释其如何达到输出。 例如,如果贷款审批算法根据申请者的收入解释决定,而实际上是根据申请人的居住地,那么解释将是不准确的。 
  • 知识限制: 人工智能的知识极限可以通过两种方式达到,它涉及系统专业知识之外的输入。 例如,如果构建了一个对鸟类物种进行分类的系统,并且给定了一张苹果的图片,那么它应该能够解释输入不是鸟类。 如果系统得到一张模糊的图片,它应该能够报告它无法识别图像中的鸟,或者它的识别可信度非常低。 

数据在可解释人工智能中的作用

可解释人工智能最重要的组成部分之一是数据。 

根据 谷歌,关于数据和可解释的人工智能,“人工智能系统最好通过底层训练数据和训练过程以及由此产生的人工智能模型来理解。” 这种理解依赖于将经过训练的人工智能模型映射到用于训练它的确切数据集的能力,以及仔细检查数据的能力。 

为了增强模型的可解释性,关注训练数据非常重要。 团队应确定用于训练算法的数据的来源、其获取的合法性和道德、数据中的任何潜在偏差以及可以采取哪些措施来减轻任何偏差。 

数据和 XAI 的另一个关键方面是应排除与系统无关的数据。 为了实现这一点,不相关的数据不得包含在训练集或输入数据中。 

Google 推荐了一系列实践来实现可解释性和问责制: 

  • 规划您的选择以追求可解释性
  • 将可解释性视为用户体验的核心部分
  • 将模型设计为可解释的
  • 选择反映最终目标和最终任务的指标
  • 了解经过训练的模型
  • 向模型用户传达解释
  • 进行大量测试以确保人工智能系统按预期工作 

通过遵循这些推荐的实践,您的组织可以确保实现可解释的人工智能,这对于当今环境中任何人工智能驱动的组织来说都是关键。 

 

Alex McFarland 是一位人工智能记者和作家,致力于探索人工智能的最新发展。他与全球众多人工智能初创公司和出版物合作。