思想领袖
随着各行业为加速人工智能采用做准备,新的焦点放在了伦理与责任上

作者: Pandurang Kamat,Persistent Systems 的首席技术官
人工智能(AI)在其核心是 机器学习 (ML),即机器通过数据输入学习如何提高性能的过程。今天存在的庞大数据量意味着 AI 已经有了肥沃的土壤来蓬勃发展,在过去的几年里 以惊人的速度加速 。AI 的承诺已经让技术人员和各个行业的高管们创造性地思考其各种应用。
从工业革命开始,任何快速的技术进步都伴随着同等程度的热情和担忧。 万维网联盟 (W3C),一个创建 web 开发者行业标准的组织,指出“机器学习的应用日益受到关注,存在风险,可能导致危害”——包括偏见、隐私、安全、可持续性和整体问责等领域。
“人们对机器学习的伦理方法有明确的需求,这从民间社会的活动、全球出现的约 100 套伦理 AI 原则以及世界各地政府对 AI 的监管措施中可以看出,” 该组织写道 。“如果技术与其运作的社会的价值观不一致,它们就有可能破坏这些价值观。”
明智选择
表面上,很难认为增强的速度和产出对商业来说是坏事。但对于某些行业来说,决策过程中存在很多问题,一些人认为不应该将其留给算法。查看几个最大的行业,我们可以看到我们如何容易受到机器错误的影响,以及为什么负责任的 AI 很重要。
银行、金融服务和保险(BFSI)
世界经济论坛(WEF)和德勤公司研究了在 BFSI 公司中部署 AI 的过程,发现“虽然 AI 可以从大量信息中创建有用的商业洞察”,但“AI 的陌生性”将成为持续的严重风险的来源。
“AI 以非人类的方式推理,”报告中写道。“AI 系统不遵循人类的逻辑构造,并且在给定相同任务时与人类行为者表现出很大的不同。此外,AI 系统的自学习性质使其能够在没有人类输入的情况下演化,这可能会根据未知变量导致意外的结果。”
负责任的 AI 倡导者认为,机器学习在自动风险评分、信用和贷款决策等方面存在严重的问题,这些方面在历史上一直对某些人群有偏见。最近的研究表明,使用基于 AI 的决策引擎的贷款机构更有可能拒绝有色人种申请者的房屋贷款——在某些情况下,80% 的黑人申请者更有可能被拒绝 。
医疗保健
几年前, 美国医学会杂志(JAMA) 研究了医疗保健中 AI 的采用,发现挑战很多,包括“不切实际的期望、有偏见和不具代表性的数据、对公平和包容性的优先级不够、加剧医疗保健差异的风险、信任度低和不确定的监管环境”。
这并不是对 AI 的全力支持,但在医疗保健领域,负责任的 AI 有更高的标准,特别是考虑到其生死攸关的潜力。总体而言,医疗保健专业人员对 AI 的未来持乐观但谨慎的态度,专注于教育其他从业者关于在临床环境中使用 AI 的知识,并创建指南以负责任的方式向前迈进,造福所有患者。
媒体
普华永道估计,到 2030 年,AI 将为全球经济增长贡献 15.7 万亿美元 ,但 根据 Salesforce 的说法 ,不到一半(48%)的客户信任公司会以道德的方式使用 AI ,65% 的人担心 AI 的不道德使用。在利润和信任的交叉点上,有媒体公司——早期采用者拥有巨大的影响力。人们担心的是,AI 不是一种“设置并忘记”的应用,这意味着对于媒体公司来说,他们的责任不仅在于内容的制作,还在于其部署后的持续监测。
广告如何被提供和个性化?内容如何到达特定的受众,传达什么信息?谁在教 AI“如何”学习?如何在尊重隐私的同时针对特定的消费者?这些只是媒体公司在平衡道德与获得竞争优势时面临的一些问题。
对责任的回应
负责任的 AI 的发展每天都在进步——立法者正在起草法规,消费者正在要求更多的透明度,许多公司已经创建了专门的部门来确保他们的 AI 被适当使用。公司需要一个 明确定义的负责任的 AI 框架 ,涵盖伦理、透明度、问责、公平、隐私和安全。随着辩论和改革的继续, 麻省理工学院斯隆管理评论和波士顿咨询集团最近的一项联合研究 提供了一些简单的指导——他们写道,“如果你想成为一个负责任的 AI 领导者,专注于成为一个负责任的公司。”
