关注我们.

伦理

AI Now Institute 警告滥用情绪检测软件和其他道德问题

mm

AI Now Institute 发布了一份报告,敦促立法者和其他监管机构对情绪检测技术的使用设定严格限制,在可能用于做出员工招聘或学生录取等重要决策的情况下禁止使用该技术。 此外,该报告还包含有关人工智能领域一系列主题的许多其他建议。

这个 AI Now学院 是一家位于纽约大学的研究机构,其使命是研究人工智能对社会的影响。 AI Now 发布了一份年度报告,展示了他们关于人工智能研究现状以及人工智能当前使用方式的道德影响的发现。 据英国广播公司报道今年的报告讨论了算法歧视、人工智能研究缺乏多样性以及劳工问题等主题。

情感识别是情绪检测算法的技术术语,是人工智能研究中一个快速发展的领域。 那些利用该技术做出决策的人经常声称,系统可以通过分析微表情以及语气和肢体语言等其他线索来获取有关人们情绪状态的可靠信息。 AI Now 研究所指出,该技术正在广泛应用,例如确定雇用谁、设定保险价格以及监控学生在课堂上是否集中注意力。

AI Now 联合创始人 Kate Crawford 教授解释说,人们通常认为可以通过相对简单的模型准确预测人类情绪。 克劳福德说,一些公司正在根据保罗·埃克曼(Paul Ekman)的工作来开发他们的软件,保罗·埃克曼是一位心理学家,他假设脸上只有六种基本的情绪类型。 然而,克劳福德指出,自从艾克曼的理论被引入以来,研究发现面部表情的可变性要大得多,并且表情可以很容易地随着情况和文化的不同而变化。

“在这些技术推出的同时,大量研究表明……没有实质性证据表明人们在你所感受到的情绪和你的面部表情之间存在这种一致的关系,” 克劳福德对 BBC 说道.

出于这个原因,AI Now 研究所认为,大部分情感识别都是基于不可靠的理论和有问题的科学。 因此,在进行更多研究之前不应部署情绪检测系统,并且“政府应明确禁止在高风险决策过程中使用情感识别”。 AI Now 认为,我们尤其应该停止在“敏感的社会和政治环境”中使用该技术,包括就业、教育和治安。

至少有一家专注于情感识别的人工智能开发公司 Emteq 同意应该制定法规,以防止该技术被滥用。Emteq 的创始人查尔斯·恩杜卡 (Charles Nduka) 向 BBC 解释说,虽然人工智能系统能够准确识别不同的面部表情,但表情和情绪之间并没有简单的对应关系。恩杜卡确实表达了对监管过度和扼杀研究的担忧,并指出“如果要禁止某些东西,那么至关重要的是不要把孩子和洗澡水一起倒掉”。

据 NextWeb 报道,AI Now还推荐了一些其他应该指导人工智能行业前进的政策和规范。

AI Now 强调人工智能行业需要使工作场所更加多样化,并表示应保证工人有权表达对侵入性和剥削性人工智能的担忧。 技术工作者还应该有权知道他们的努力是否被用来构建有害或不道德的工作。

AI Now 还建议立法者采取措施,在使用源自健康相关人工智能的任何数据时要求知情同意。 除此之外,建议更认真地对待数据隐私,各州应努力为涵盖私人和公共实体的生物识别数据设计隐私法。

最后,该研究所建议人工智能行业开始更加全球化地思考和行动,试图解决人工智能带来的更大的政治、社会和生态后果。 建议做出大量努力来解释人工智能对地理位移和气候的影响,并且政府应公开人工智能行业的气候影响。

博主和程序员,擅长 机器学习 深度学习 主题。 丹尼尔希望帮助其他人利用人工智能的力量造福社会。