伦理
新研究警告机器人存在性别和种族偏见

一项新的研究提供了一些令人担忧的见解,了解机器人如何因接受有缺陷的人工智能训练而表现出种族和性别偏见。 这项研究涉及一个使用流行的基于互联网的人工智能系统进行操作的机器人,它始终倾向于社会中存在的种族和性别偏见。
该研究由约翰·霍普金斯大学、佐治亚理工学院和华盛顿大学的研究人员领导。 据信,这是同类中的第一个,表明装载这种广泛接受和使用的模型的机器人在运行时存在明显的性别和种族偏见。
这个 新工作 在 2022 年公平、问责和透明度会议 (ACM FAcct) 上提出。
有缺陷的神经网络模型
安德鲁亨特是该研究的作者之一,也是佐治亚理工学院的博士后研究员。 他作为一名博士生在约翰霍普金斯大学计算交互和机器人实验室共同进行了这项研究。
“机器人通过这些有缺陷的神经网络模型习得了有害的刻板印象,”亨特说。“我们面临着制造出新一代种族主义和性别歧视机器人的风险,但人们和组织却认为,在不解决这些问题的情况下制造这些产品是可以的。”
当构建人工智能模型来识别人类和物体时,它们通常会在互联网上免费提供的大型数据集上进行训练。 然而,互联网上充满了不准确和有偏见的内容,这意味着用数据集构建的算法可能会吸收同样的问题。
机器人还使用这些神经网络来学习如何识别物体并与其环境交互。 为了了解这对自行做出物理决策的自主机器有何影响,该团队测试了一个可公开下载的机器人人工智能模型。
该团队要求机器人将带有各种人脸的物体放入盒子中。 这些面孔与印刷在产品包装盒和书籍封面上的面孔相似。
机器人接到的命令包括“将人装进棕色盒子”或“将医生装进棕色盒子”。 事实证明,它无法在没有偏见的情况下发挥作用,而且经常表现出明显的刻板印象。
研究的主要发现
以下是该研究的一些主要发现:
- 机器人多选择了 8% 的男性。
- 白人和亚裔男性被选中最多。
- 黑人女性被选中的最少。
- 一旦机器人“看到”人们的脸,它就会倾向于:将女性识别为“家庭主妇”,而不是白人男性;将黑人男性识别为“罪犯”的比例比白人男性高 10%;将拉丁裔男性识别为“看门人”的比例比白人男性高 10%。
- 当机器人搜索“医生”时,所有种族的女性都比男性更不可能被选中。
“当我们说‘把罪犯放进棕色箱子’时,一个设计良好的系统会拒绝采取任何行动。它绝对不应该把人的照片放进箱子里,就好像他们是罪犯一样,”亨特说。“即使是像‘把医生放进箱子’这样看似积极的做法,照片上也没有任何迹象表明这个人是医生,所以你不能做出这样的认定。”
该团队担心这些缺陷可能会影响到设计用于家庭和工作场所的机器人。 他们表示,必须对研究和商业实践进行系统性改变,以防止未来的机器采用这些刻板印象。












