面试
Reid Blackman 博士、Virtue Consultants 创始人兼首席执行官 – 访谈系列

里德布莱克曼 是以下公司的创始人兼首席执行官 美德顾问。 在此期间,他与多家公司合作,将道德和道德风险缓解融入公司文化以及新兴技术产品的开发、部署和采购中。 他还是 Ernst & Young 的高级顾问、人工智能顾问委员会成员,并且是 IEEE 道德一致设计倡议的成员。
Reid 的工作曾在《华尔街日报》和《Dell Perspectives》中得到介绍,他还为《哈佛商业评论》、TechCrunch、VentureBeat 和《风险与合规》杂志撰稿。 许多新闻文章都引用了他的话,并定期在世界经济论坛、SAP、戛纳国际创意节、福布斯、纽约大学斯特恩商学院、哥伦比亚大学和 AIG 等各种场合发表演讲。
2009 年至 2018 年,您担任科尔盖特大学的哲学教授。您从什么时候开始将人工智能伦理纳入您的课程?
我经常教授社会和政治哲学课程,其中涉及马克思。 马克思的核心主张之一是,由于“生产资料”的大幅增加,资本主义最终将让位于共产主义。 换句话说,资本主义以竞争和开放新市场的名义推动效率越来越高,这意味着技术创造的增加,可以在越来越短的时间内产出越来越多的产品。 马克思还预测,这将使金钱越来越多地落入少数人手中,并使越来越多的人陷入贫困,届时,资本主义结构将被越来越多的贫困群众领导的革命所推翻。 所有这些引发了围绕技术伦理的讨论,消除了对人类劳动的需求,这是人工智能伦理的核心要素。
如果您感兴趣的话,可以讲一个小故事:早在 2002 年,我还是一名研究生,正在西北大学与本科生进行关于马克思的讨论。 某个时候,一名学生举手说:“最终我们将不需要人类做任何工作。” 班级一片混乱。 我很困惑。 所以我说:“那么谁来做这项工作呢?” 他以一种非常务实的方式回答:“机器人。” 课堂上爆发出一阵笑声。 我扼杀了自己的。 但谁笑到最后已经很明显了。
2018 年,您推出了 美德顾问,一家道德咨询公司,帮助数据和人工智能领导者识别和减轻其产品的道德风险。 是什么促使您开始这段创业之旅?
妒忌。 嗯,有点像。 我在研究生的时候创办了一家烟花批发公司,大概是在 2003 年或 2004 年。情况比我预期的要好,公司仍然存在,尽管现在我是一名顾问,不再负责日常运营。 无论如何,它是相关的,因为它解释了我如何成为高露洁创业计划(称为 TIA,思想付诸行动,由两位出色的风险投资人领导,安迪·格林菲尔德和威尔斯·哈普沃斯,他们经营 TIA Ventures)的初创企业导师。 作为导师,我看到学生们开始了令人兴奋的项目,因为他们试图弄清楚如何建立和扩大他们的营利性或非营利性初创公司,我想,“我想要那个!” 但我的新事业会是什么? 它必须表达我对哲学和伦理学的热爱,而第一个有意义的事情就是伦理咨询。 当时我没有看到此类服务的市场,因为没有可看的,所以我等待。 然后 Cambridge Analytica、BLM 和 #MeToo 成为全国头条新闻,突然间人们更加意识到了这一需求。
对于公司来说,引入人工智能道德声明有多重要?
人工智能道德声明不是必需的,但它是设定目标的非常有用的工具。 当您将人工智能道德计划引入您的组织时,您希望它能够识别、减轻和管理各种道德、声誉、监管和法律风险。 这就是它的主要功能。 道德声明有助于阐明一旦您拥有实现该功能的基础设施、流程和实践,事情将会是什么样子。 只要战略需要一个目标(它总是如此),人工智能道德声明是阐明这些目标的好方法,尽管它不是唯一的方法。
公司如何确保道德声明转化为流程和实践?
道德声明只是朝着正确方向迈出的一小步。 如果你想继续前进,下一个自然步骤就是评估你相对于该声明中阐述的目标的情况。 一旦您知道最大、风险最大的差距在哪里——也就是说,您最有可能达不到目标的地方——那么您就可以开始设计解决方案来缩小这些差距。 也许这是一个道德委员会。 也许这是产品开发过程中的尽职调查过程。 也许您在非产品部门(例如营销和人力资源部门)处理数据的方式正在变得更好。 可能就是所有这些事情以及更多。
公司应该实施哪些解决方案以避免对实际人工智能算法产生偏见?
有很多技术工具可以用来识别偏见,但它们都很有限。 它们允许您将模型的输出与学术 ML 道德文献中提供的数十种量化指标进行比较,但您必须小心,因为这些指标并不相互兼容。 因此,需要做出一项实质性的、道德的决定:在这种情况下,哪些指标(如果有的话)是合适的?
除了使用这样的工具,并以负责任的方式回答这个问题之外,产品团队最好在开始构建之前考虑偏见可能会在哪里蔓延。 它如何包含或反映在训练数据集中? 确定目标函数怎么样? 那么如何确定阈值呢? 有很多地方都可能出现偏见。预先考虑偏见可能出现在当前项目中的哪些位置以及如何出现,对于识别和减轻偏见至关重要。
人工智能公司因被白人男性主导而臭名昭著,他们可能会无意中将一些偏见写入人工智能系统。 为了避免这种情况,人力资源部门应该寻找哪些类型的特质?
我完全支持工程师和产品团队拥有更多的机会和更大的多样性。 也就是说,我认为这是从错误的角度看待事物。 当涉及有偏见的算法时,主要问题不是某些白人的偏见导致有偏见的代码。 就是数据训练集有偏差。 事实上,哥伦比亚大学最近发表的一篇论文——“有偏见的程序员? 还是有偏见的数据? 实施人工智能伦理的现场实验”——得出的结论是“理解技术指导的程序员成功地减少了偏见”,并且“女性和少数族裔人工智能程序员的算法预测并没有表现出更少的算法偏见或歧视。” 因此,虽然人力资源部门应该关注多样性问题,但减少人工智能产出偏见的策略是否应该主要(更不用说专门)关注与多样性工作相关的招聘决策还远不清楚。
您能否讨论一下什么是道德风险尽职调查以及为什么公司应该实施尽职调查?
道德风险尽职调查是试图发现您正在创建的产品可能存在的各种道德风险,包括如何部署、如何使用和滥用等。您希望重点关注产品的功能产品——包括它拥有的产品和它缺乏的产品——以及这些产品在不同情况下部署时可能导致道德不当行为的方式。 做得好的话,就是系统的、彻底的检查。 当然,虽然您可以尽力观察周围的情况,但您很可能会错过一些事情,这就是为什么持续监控很重要。
至于企业为什么要实施:只需要考虑不这样做的道德、声誉、监管和法律风险。 想想新闻中和监管机构调查中的 Optum(据称)有偏见的算法,该算法建议医疗保健从业者更多地关注白人患者,而不是病情较重的黑人患者。 或者高盛,因苹果卡的信用限额而受到调查,据称该信用卡存在歧视女性的行为。 或者是亚马逊的招聘软件,由于担心在部署之前存在偏见,该软件被废弃。 或者 IBM 因涉嫌盗用从其天气应用程序收集的数据而被洛杉矶起诉。 或者脸书……
关于美德顾问,您还有什么想分享的吗?
Virtue 帮助高级领导者将人工智能道德付诸实践,无论是帮助教育人们并提高该主题的技能、撰写人工智能道德声明、创建和实施可行的人工智能道德风险框架,还是仅仅担任人工智能道德顾问。 如果这听起来很有趣,人们应该过来打个招呼。












