伦理
谷歌创建新的可解释人工智能程序以增强透明度和可调试性

就在最近,谷歌宣布创建一个新的云平台,旨在深入了解人工智能程序如何做出决策,使程序调试变得更容易并提高透明度。 据报道 注册该云平台名为Explainable AI,它标志着谷歌在AI可解释性方面投资的重大尝试。
当今世界上许多(也许是大多数)主要人工智能系统都采用了人工神经网络。运行主要人工智能应用程序的神经网络可能非常复杂和庞大,并且随着系统复杂性的增加,凭直觉理解系统做出特定决策的原因变得越来越困难。正如谷歌在其白皮书中解释的那样,随着人工智能系统变得更加强大,它们也变得更加复杂,因此更难调试。当这种情况发生时,透明度也会丢失,这意味着有偏见的算法可能很难识别和解决。
驱动复杂系统行为的推理如此难以解释,这一事实往往会产生严重的后果。 除了难以对抗人工智能偏见之外,它还使得区分虚假相关性和真正重要且有趣的相关性变得异常困难。
许多公司和研究小组正在探索如何解决人工智能的“黑匣子”问题,并创建一个系统来充分解释人工智能做出某些决策的原因。 谷歌的可解释人工智能平台代表了谷歌应对这一挑战的努力。 可解释的人工智能由三种不同的工具组成。 第一个工具是一个描述人工智能选择了哪些特征的系统,它还显示一个归因分数,该分数代表特定特征对最终预测的影响程度。 谷歌关于该工具的报告给出了一个例子,根据降雨量、当前温度、星期几和开始时间等变量来预测自行车骑行将持续多长时间。 网络做出决定后,会给出反馈,显示哪些特征对预测影响最大。
对于图像数据,该工具如何提供此类反馈? 在这种情况下,该工具会生成一个叠加层,突出显示对渲染决策影响最大的图像区域。
该工具包中的另一个工具是“假设”工具,它显示了操纵各个属性时模型性能的潜在波动。 最后,可以设置最后一个工具,以便按照一致的时间表向人工审阅者提供样本结果。
谷歌人工智能和机器学习首席科学家安德鲁·摩尔博士讲述了该项目的灵感来源。摩尔解释说,大约五年前,学术界开始担心人工智能使用带来的有害副作用,而谷歌希望确保其系统仅以合乎道德的方式使用。摩尔描述了一个案例:该公司试图设计一个计算机视觉程序,用于在建筑工人未佩戴头盔时发出警报,但他们担心监控可能会过度,变得不人性化。摩尔表示,谷歌决定不发布通用人脸识别API也是出于类似的原因,因为该公司希望更好地控制其技术的使用方式,并确保其仅以合乎道德的方式使用。
摩尔还强调 为什么人工智能的决定可解释性如此重要:
如果你有一个安全关键系统或具有社会重要性的事物,而你认为你的模型出错了,可能会产生意想不到的后果,那么你必须能够诊断它。我们希望仔细解释可解释性能做什么,不能做什么。它不是万能药。












