人工智能
研究表明人工智能模型与人类视觉处理不匹配

约克大学的一项新研究表明,深度卷积神经网络 (DCNN) 与使用配置形状感知的人类视觉处理不匹配。 该研究的合著者詹姆斯·埃尔德教授表示,这可能会对人工智能应用产生严重且危险的现实影响。
这项名为“深度学习模型无法捕捉人类形状感知的配置本质”发表在《细胞出版社》杂志上 科学。
这是约克人类和计算机视觉研究主席兼约克人工智能与社会中心联席主任埃尔德和心理学助理教授、前 VISTA 尼古拉斯·贝克教授的合作研究约克大学博士后研究员。
新颖的视觉刺激“弗兰肯斯坦”
该团队依靠被称为“弗兰肯斯坦”的新颖视觉刺激,帮助他们探索人脑和 DCNN 如何处理整体、可配置的对象属性。
“弗兰肯斯坦只是被以错误的方式拆散并重新组装起来的物体,”埃尔德说。 “因此,它们拥有所有正确的当地特征,但却出现在错误的地方。”
研究发现,DCNN 不会像人类视觉系统那样被弗兰肯斯坦迷惑。 这表明对配置对象属性不敏感。
“我们的结果解释了为什么深度人工智能模型在某些条件下会失败,并指出需要考虑物体识别之外的任务,以了解大脑中的视觉处理,”埃尔德继续说道。 “这些深度模型在解决复杂的识别任务时往往会走‘捷径’。 虽然这些捷径在许多情况下可能有效,但在我们目前与行业和政府合作伙伴合作的一些现实世界人工智能应用中,它们可能是危险的。”

图片:约克大学
现实世界的影响
埃尔德说,这些应用之一是交通视频安全系统。
“繁忙交通场景中的物体——车辆、自行车和行人——相互阻碍,到达驾驶员眼中时,它们就像一堆互不相连的碎片,”他说。 “大脑需要正确地对这些碎片进行分组,以识别物体的正确类别和位置。 用于交通安全监控的人工智能系统只能单独感知碎片,因此无法完成这项任务,可能会误解弱势道路使用者面临的风险。”
研究人员还表示,旨在使网络更像大脑的训练和架构修改并没有实现配置处理。 没有一个网络能够准确预测逐次试验的人体判断。
“我们推测,为了匹配人类配置敏感性,必须训练网络来解决类别识别之外更广泛的目标任务,”埃尔德总结道。