伦理
公司如何创建负责任和透明的 AI – 思想领袖

作者 Eric Paternoster, Infosys Public Services 首席执行官
谷歌母公司 Alphabet 的首席执行官 Sundar Pichai 将人工智能的发展描述为“比火或电力更深刻的变化”,而 COVID-19 带来了释放这一技术的新紧迫感。人工智能的应用现在正处于聚光灯下,改善 COVID 治疗、追踪潜在的 COVID 携带者,并为零售网站的供应受限用户部署实时聊天机器人。这些应用已经证明,人工智能可以提高企业的韧性和造福更广泛的社会。
因此,除了“云原生”之外,最近一个季度的热词可能就是“AI 首要转型”,这是行业从业者认为即使在 COVID 消失后仍将保持真实的术语。对于许多公司来说,人工智能带来的降低成本(例如,供应链算法可以匹配供应和需求)和提高生产力的好处(例如,银行使用实时文档和身份验证)太诱人了,无法忽视。
为什么是 AI 首要转型?
在 AI 首要转型中,企业使用人工智能作为北极星,不仅要智能地使用它,还要影响由人、流程和系统在大规模上做出的决定。它使组织适应员工、合作伙伴和客户之间不断变化的动态。这样,他们就可以快速适应和满足不断变化的需求,同时创造长期的竞争优势。
但是,并非所有公司都处于同一水平的人工智能成熟度。有一些可以被称为“传统人工智能群体”,或 H1。这些公司,经验和投资较少,一般使用经典算法,如 250 年前出现的朴素贝叶斯或 1995 年由 Tin Kam Ho 开发的随机森林来增强现有系统中的碎片化智能。人工智能的这些用途是严格基于规则的,且相当僵化,缺乏从它们发现的规则中概括的能力。然后还有“深度学习群体”,或 H2。这些公司采用更复杂的人工智能,包括神经机器翻译和基于转录的系统,以挖掘对话见解。这些系统更强大,但不容易解释它们为什么做某些事情。它们也缺乏透明度。对于这两组公司,使用的人工智能通常不可信任或不可靠,可能会做出偏见的决定,从而使公司在政府机构、监管机构和公众面前受到负面关注。
这些公司需要现在采取行动,将他们的人工智能实施向前迈出一步——到第三个营地(H3),在那里人工智能是自学习和生成的。在这一点上,人工智能系统是半监督或甚至无监督的。它们是透明的,并通过多任务学习实现“常识”。这些系统提供更丰富的智能,并提供实时、可执行的见解。通过有效管理、治理人工智能,可以在所有阶段解释和说明。
如何实现更负责任、更透明的人工智能
人工智能越来越多地被用于管理学校、工作空间和其他公共实体。在这些环境中,人工智能的公平性和透明度比以往任何时候都更为重要。然而,随着社会应对人工智能采用的爆发,监管机构提供的指导有限,适当开发和部署人工智能技术。因此,公司必须带头。更广泛的科技行业必须投入资金和人力,转变最初的人工智能实施,成为高效、创造性、负责任和透明的智能驱动生态系统。为了进入这个领域,公司应该做以下四件事:
- 让人类参与其中:人工智能模型通常被设计为独立于人类运行。然而,在许多情况下,人类因素是至关重要的。人类需要审查决定并避免偏见和错误,这些错误经常使人工智能项目脱轨。两个用例包括欺诈检测和涉及执法的案例。我们建议公司在一段时间内逐渐、稳定地雇用人工智能从业者,以便在他们的人工智能首要之旅中占据先机。
- 消除偏见数据:无偏见的数据集是可靠、公平和非歧视性人工智能模型的关键前提。为了了解其重要性,人工智能正在被用于筛选简历和银行信用评分,甚至已经进入了一些司法系统。在这种情况下,未经检查的偏见已经产生了真正的影响。
- 确保决策是可解释的:这个特点已经被许多大型新闻媒体报道过,且有充分的理由。XAI 有助于解释为什么人工智能系统做出了某个决定。它揭示了哪些深度学习模型的特征被用来做出预测或假设。了解特征的重要性和能够证明决策是如何做出的至关重要,例如用于自动驾驶汽车和计算机视觉的医疗活检。
- 可靠地重现发现:这是研究项目中的一个共同需求,人工智能模型应该在给出预测时保持一致性,即使面对新数据时也应如此。
这四件事将创建透明、智能驱动的生态系统,朝着我们所说的“活跃企业”迈进。在这里,做出无偏见、可解释的决定几乎是实时的,整个企业作为一个由人类管理的有感知的生物体。阅读 Infosys 知识研究所白皮书 以了解更多。












