人工智能
引入人工智能的新透明度水平 – 思想领袖

作者:Balakrishna D R,Infosys公司能源、通信、服务和人工智能及自动化服务的高级副总裁和服务产品负责人。
2020年1月9日,世界卫生组织向公众通报了中国的冠状病毒爆发。三天前,美国疾病控制和预防中心已经发布了相关信息。但是,一个加拿大的健康监测平台已经比他们先发布了相关信息,并在2019年12月31日就向其客户发送了爆发的警告!该平台BlueDot使用人工智能驱动的算法,扫描外语新闻报道、动物和植物疾病网络以及官方公告,为其客户提供提前预警,以避免像武汉这样的危险区。
过去几年中,人工智能已经成为当今快速变化的经济中转型、颠覆和竞争优势的关键来源。从疫情追踪到国防、医疗保健到自动驾驶汽车,人工智能正在得到广泛的应用。普华永道预测,到2030年,人工智能可能会为全球经济贡献高达15.7万亿美元,按照当前的增长率。
然而,尽管人工智能带来了希望,但它仍然存在未解答的问题,特别是在透明度和可靠性方面。了解、预测和信任人工智能系统的决策能力在与生命、死亡和个人健康相关的领域尤为重要。
进入未知领域
当自动推理系统首次被引入以支持决策时,它们依赖于手工编写的规则。虽然这使得它们容易被解释和修改,但它们不具备可扩展性。基于机器学习的模型出现以满足后者的需求;它们不需要人工干预,可以从数据中学习——数据越多越好。虽然深度学习模型在建模能力和适用范围方面无人能及,但它们大多数是黑盒子,这引发了人们对其真实性、可靠性和偏见的担忧,特别是在其被广泛使用的背景下。
目前,没有直接的机制可以追踪深度学习模型隐含使用的推理。对于具有黑盒性质的机器学习模型,主要的可解释性是事后可解释性,这意味着解释是从模型生成的输出的性质和特征中推导出来的。早期尝试从神经网络(即深度学习的早期名称)中提取规则由于网络变得太大和多样化而不再被追求,因此规则提取变得不可行。因此,迫切需要在人工智能建模中引入可解释性和透明度。
夜幕降临,光明到来
这种担忧导致了对机器学习透明度的需求,从而促进了可解释人工智能(XAI)的发展。它旨在解决阻碍我们完全信任人工智能决策的主要问题,包括偏见和透明度。这个新的人工智能领域带来了问责制,以确保人工智能为所有相关人员带来更好的结果。
XAI将在帮助人工智能系统和算法中固有的偏见方面发挥关键作用,这些偏见是由编程人工智能的人员的背景和经验无意中造成的。可能会出现对特定国籍或种族的歧视等不需要的偏见,因为系统会根据实际数据为其添加价值。例如,可能会发现典型的贷款违约者来自特定的种族背景,但是基于此实施任何限制性政策可能违反公平做法。错误的数据也是偏见的原因。例如,如果某个面部识别扫描仪由于肤色或面部照明的原因,5%的时间不准确,它可能会引入偏见。最后,如果您的样本数据不能真实代表整个人口,那么偏见是不可避免的。
XAI旨在解决人工智能系统如何做出黑盒子决策的问题。它检查并尝试了解决策中涉及的步骤和模型。它回答了诸如以下问题:人工智能系统为什么做出特定的预测或决策?人工智能系统为什么没有做其他事情?人工智能系统何时成功或失败?人工智能系统何时给出足够的信心,以至于您可以信任它,以及人工智能系统如何纠正错误?
可解释、可预测和可追溯的人工智能
实现人工智能系统可解释性的一个方法是使用具有内在可解释性的机器学习算法。例如,决策树、贝叶斯分类器和具有某些可追溯性和透明度的决策的其他算法可以提供对关键人工智能系统所需的可见性,而不会牺牲太多性能或准确性。
鉴于需要为深度学习和其他更复杂的算法方法提供可解释性,美国国防高级研究计划局(DARPA)正在通过一系列资助的研究计划开发可解释的人工智能解决方案。DARPA将人工智能可解释性描述为三个部分,包括:预测准确性,即模型将解释如何得出结论,以改善未来的决策;决策理解和来自人类用户和操作员的信任,以及人工智能系统采取的行动的检查和可追溯性。
可追溯性将使人类能够进入人工智能决策循环,并在需要时停止或控制其任务。人工智能系统不仅需要执行特定任务或施加决策,还需要提供其决策的透明报告,并附上支持的理由。
目前尚不可能标准化算法或XAI方法,但可能会标准化透明度水平/可解释性水平。标准化组织正在尝试制定透明度水平的共同标准化理解,以便于终端用户和技术供应商之间的沟通。
随着政府、机构、企业和公众越来越依赖人工智能系统,通过决策过程的更清晰透明度来赢得他们的信任将变得至关重要。首届全球XAI会议的启动——人工智能:可解释人工智能研讨会的国际联合会议,是XAI时代到来的进一步证明。












