Connect with us

伦理

艾什利·布莱恩特-贝克,Fresh Eyes Digital 数据和分析总监 – 采访系列

mm

艾什利·布莱恩特-贝克 是 Fresh Eyes Digital 的数据和分析总监,Fresh Eyes Digital是一家专注于非营利组织成功的咨询公司。在加入 Fresh Eyes Digital 之前,她经营自己的咨询公司 B&B 数据解决方案,帮助品牌建立和利用数据解决方案。她在分析领域工作了十多年,涉及的行业包括消费品、旅行、物流、医疗保健和非营利组织。

她已成为关于人工智能中性别偏见、使用人工智能进行客户细分以及工作场所多样性的热门演讲者。她最近被邀请在包括 SXSW、Data Minds Connect 和 Digital Summit DC 在内的各种活动中发言。艾什利曾就读于巴黎美国研究生学校、乔治城大学、路易斯安那州立大学和福特海斯州立大学。她拥有国际经济学硕士学位、数据科学证书、工商管理学士学位和艺术学士学位。

您最初是什么时候被吸引到计算机科学和数据科学的?

在大学里,我学习艺术,毕业后想为一家视频游戏公司工作,担任游戏设计师。我的计划是在游戏中设计 3D 计算机模型和角色和物体,让人们与之交互。我甚至在大学期间为 EA Sports 工作过视频游戏质量保证测试员。由于当时我的大学没有计算机艺术专业,我决定辅修计算机科学来补充我的艺术学位。我最初根本不喜欢计算机科学课程。其他学生和一些教授对没有经验(像我一样)的人存在明显的敌意。我坚持完成了我的辅修,因为我的艺术毕业设计目标是设计和编程一个可用的视频游戏。我使用 Python 和 Maya 构建了一个带有动画棋子的 3D 国际象棋游戏和一个可以与你对战的简单人工智能。当时我对 Python 一无所知,我以为我永远不会再使用它。

时间快进到我大学毕业后的第一份工作。我在一家营销公司担任初级项目经理。我与一队艺术家、营销专家、制作专家和一位分析师一起工作,她独自为大约 15 个客户管理分析。当她请病假几周时,她会偶尔要求我帮她检查数学或创建简单报告。当她回来后,我要求我的主管将我调到她的部门。与数据合作对我来说非常有趣。这绝对是我职业生涯中的意外转折,但我从未回头。我一直想学习更多,所以我参加了课程,并申请了可以向他人学习的分析工作。然后一切都变得完整,我又开始使用 Python,尽管方式完全不同于之前。

所有这些都说明,我最初纯粹是偶然进入了数据科学。

您目前是 Fresh Eyes Digital 的数据和分析总监,这是一家为非营利组织提供服务的公司。您能否分享公司的业务以及您在那里所做的工作?

Fresh Eyes 是一家为非营利组织提供营销和筹款支持的咨询公司。我们与客户合作,以了解他们的捐赠者,围绕非营利目标构建数字活动,并帮助非营利组织了解如何提高他们的数字存在,以实现这些目标。Fresh Eyes 聘用了我,因为他们想建立更强大的数据产品。最初,我作为顾问与他们合作,帮助他们设计数字多变量测试,了解结果,并自动化分析和仪表板服务。现在,我正在与他们合作,开发一套面向非营利组织的产品。其中一些项目包括预测分析,分析捐赠者和捐赠者随时间的转化和捐赠率。了解外部因素(如政治气候、经济变化和新闻周期)的影响,以及内部因素(如营销信息策略、非营利影响报告,甚至组织内领导职位的变动),以及所有这些因素如何影响转化的倾向。这些信息告知我们的预测分析和仪表板以及分类模型,以更好地了解捐赠者和参与度。

非营利组织正在接受先进统计方法,并意识到,当他们能够更好地了解自己的影响力并以更有结构的方式筹集资金时,他们的使命就会更容易实现。

您最自豪的成就是成为STEM领域多样性的倡导者,您能否分享一些这些亮点?

有这么多优秀的组织致力于STEM领域的多样性和公平:Black Girls Code、ByteBack、DataKind,最近我的社团Zeta Phi Beta Inc.与Google等其他组织合作,培训代表性不足的群体进行计算机和技术培训。我通过与这些组织志愿服务、成为新进入该领域的人的导师、在活动(特别是技术活动,我有时是唯一的女性或有色人种)发言以及在学校(尤其是多数少数民族学校、农村学校和替代学校)举办工作坊来发挥我的作用。另外,我曾与几家企业合作, diversify 他们的实习项目和入门级毕业生项目。这些工作我都是出于习惯做的。我在一个志愿服务是日常生活的一部分的家庭和社区中长大。我一直保持着这种习惯,从大学开始,直到现在,通过Zeta Phi Beta Inc.。然而,我认为我之所以倾向于这个领域,是因为我没有机会在大学之前学习计算机和编码,当我进入大学时,我记得我在追求计算机科学辅修时感受到的负面情绪。我不希望任何人,尤其是那些试图学习和自我提升的人,经历这种感觉。我不认为我真正意识到我正在产生的影响,直到我在一个招聘活动中与一群学生交谈时,一位年轻的黑人女孩和她的母亲走过来对我说,我是她们在任何会议或招聘活动中见过的第一位技术黑人女性。那时我知道我必须把这件事变成我的日常习惯。

我试图定期参加这些项目。事实上,在 3 月 16 日,我将与一位了不起的数据科学家和好友 Swathi 联合举办一个黑客马拉松,配合 Girls in AI。

您还曾致力于在农村和/或低收入社区扩大科技教育。这个问题有多严重?

哇,这是一个巨大的问题!新冠疫情使得社会中存在系统性不平等变得清晰。遗憾的是,其中一个最大的不平等是教育。我有一位朋友在华盛顿特区郊外的一所替代学校工作。这些学生通常年龄较大,他们必须在上学的同时还要打工,他们在家里可能没有距离学习所需的工具,例如笔记本电脑或台式电脑。这些学生有一位老师为他们辩护,与学校合作,获得移动选项,以便大多数学生可以在手机上访问学校。然而,这并不是低收入或替代学校环境中的常态。农村情况对于学生和教师来说也同样困难。农村地区的高速互联网可能非常昂贵,甚至无法使用。学生们坐在麦当劳的停车场里使用互联网,这是不可接受的,但在某些地区,这是必要的。我知道宾夕法尼亚州农村的教师,他们自己无法获得良好的互联网连接来连接到他们的虚拟教室。

除了新冠疫情之外,农村和低收入学校存在资金不足的问题,农村地区尤其难以吸引技术人才,当然,还存在对有色人种学生、移民学生,甚至农村学生(他们可能与“美国”文化有所不同)的普遍偏见。所有这些情景都导致了对 STEM 教育的获取不足,因此学生们从未接触过这些科目和职业。

人工智能中的性别和种族偏见有多大问题?

这是所有企业和组织都应该考虑的问题。不幸的是,这是一个难以解决的问题,因为如果人工智能表现出偏见或歧视某个群体,这通常意味着该公司或组织在这一领域已经存在模式偏见。人工智能依赖于过去的模式来预测未来的行为,因此它放大了这种行为。然而,很难让人们认识到自己的偏见,我们都有偏见,经常无意识地按照这些偏见行事。需要有系统来帮助减轻这些偏见,并让技术和商业团队都承担责任。

我们如何确保今天的人工智能应用不会放大人类的偏见?

组织可以采取一些步骤来创建数据科学和人工智能的标准做法,以帮助减轻偏见。我强调,这必须是技术团队和业务团队之间的协作过程。上下文的重要性在技术团队中并不总是可见。

它从识别潜在的偏见来源开始。它可以发生在数据收集过程中,模型构建的特征选择中,或者完全在数据之外的业务实践中。例如,我曾被一家公司的领导者问到他们的核心受众是否真的只是老年、富裕的男性,更多地居住在农村或郊区。我查看了数据,发现他们的数据管道中这个群体被过度代表。但是我也注意到,他们的大部分客户来自相同的媒体来源,保守的广播电台。我从营销团队的一位成员那里了解到,该公司在启动初期在这些平台上获得了低成本或无成本的营销,客户群反映了这一点。偏见不在数据中,而在营销策略中缺乏多样性。然而,作为结果,数据团队创建的生命周期价值评分模型将老年、富裕的男性居住在郊区和农村社区评为表现最佳的客户,放大了营销团队采用的人员配置策略。这是技术团队不应该知道的事情,但他们应该负责提出正确的问题。

这带来了第二步,即为识别和处理偏见建立指南。一旦您识别了潜在的偏见来源,组织应该创建一个检查清单来查找这些问题,并创建一个路径让发现令人担忧的数据或模式的人来解决它们。这不能在真空中完成。确保应用程序不会放大偏见是所有团队的责任。如上例所示,数据团队对营销策略没有责任。他们可以帮助找出发现并与组织的其他团队合作解决它们。在这种情况下,通信团队与数据科学团队合作,测试其他针对不同人口统计群体的通信策略。

当偏见出现在数据模型中时,有时可能是由于数据团队确定特征选择、包含或排除数据存储中的数据或预测的指标。 在这些情况下,数据团队需要了解模型准确性不总是等同于模型公平性。 可能包括某些功能在数据模型中会增加模型的预测准确性,但额外的 0.5% 的准确性可能会带来社会或业务成本。 确定什么是公平的并不是一项简单的任务,需要多方面团队的参与。 一种称为“反事实公平性”的方法认为,如果在实际世界和个体属于不同人口统计群体的反事实世界中,决策对个体是公平的。 此外,Microsoft 和 Google AI 已经发布了关于人工智能中公平性的标准。 我个人参考了欧盟关于人工智能伦理的指南,我认为这些指南对我的行业来说是相当全面的一套指南。 一旦建立了公平的标准,数据团队就可以确定解决方案是预处理数据、在系统做出决定后修改系统还是将公平性定义纳入训练过程本身。 数据中的偏见问题是一个复杂的问题,需要定期评估和广泛的人群发声。 这不仅仅是一个需要解决的技术问题。

您对政府颁布的人工智能和数据伦理政策的看法是什么?

我认为,通过制定人工智能和数据伦理的标准程序,已经朝着正确的方向迈出了步伐。特朗普关于人工智能伦理的行政命令创建了一个模型在政府内部部署的注册表,建立了创建政策指导的时间表,鼓励机构雇用技术专注的团队和个人,并鼓励政府在不涉及研发或国家安全的领域内人工智能使用的透明度,我认为这是非常重要的。这种全面计划是政府的激动人心的发展,政府在历史上一直对技术的采用速度很慢。然而,这些政策几乎没有创造伦理文化,制定各机构之间的强制性或协调一致的计划,甚至没有定义这些背景下的“伦理”或“公平”到底是什么。随着新政府的到来,我会敦促他们通过更结构化和协调一致的计划来巩固这些计划,并在所有机构中建立评估程序,仔细考虑人工智能对人类的影响,因为政府所做的很多工作都会影响国内外人们的日常生活。

您是否还有其他关于您在 Fresh Eyes Digital 的工作的内容想要分享?

数据科学可以被非营利组织用来增加他们对世界的影响力。对于这些组织来说,收集数据通常不是问题。他们有很多数据需要处理。以清晰和可行的方式使用这些数据对这些组织来说是困难的,因为他们通常在资源上很紧张,可能没有内部的分析团队。Fresh Eyes Digital 数据部门的工作帮助这些组织了解和部署他们的数据,以做出更明智、更有战略的决策。我很高兴有机会以这种方式与这些组织合作,以帮助他们更高效、更有效地工作,因为他们正在努力以积极的方式影响我们的世界。

感谢您详细的答案,我期待您的未来事业。希望了解更多的读者可以访问 艾什利·布莱恩特-贝克 网站和/或 Fresh Eyes Digital

安托万是一位具有远见的领导者和Unite.AI的创始合伙人,他被对塑造和推广AI和机器人人的未来充满不动摇的热情所驱动。作为一位连续创业者,他相信AI将对社会产生与电力一样的颠覆性影响,他经常被听到对颠覆性技术和AGI的潜力大加赞赏。

作为一位未来学家,他致力于探索这些创新将如何塑造我们的世界。另外,他也是Securities.io的创始人,这是一个专注于投资于重新定义未来和重塑整个行业的尖端技术的平台。