存根 新研究阐明了人类机器人信托 - unite.ai
关注我们.

机器人

新研究揭示了人机信任

更新 on

由美国陆军研究实验室和中佛罗里达大学模拟与训练研究所牵头的新研究揭示了人类对机器人的信任程度。 新项目的重点是人类和机器人之间的关系,以及人类是否更看重机器人的推理或错误。 

这项新研究研究了人类代理团队(HAT),以及人类信任、工作量和对代理的看法如何受到机器人、无人驾驶车辆和软件代理等代理的透明度的影响。 智能体透明度是指人类能够识别智能体的意图、推理过程和未来计划。 

新研究表明,每当机器人犯错时,人类对机器人的信心就会下降。 这与机器人的推理过程是否透明无关。 

这项新研究发表在《八月刊》上 IEEE 人机系统汇刊。 该论文的标题是“人机交互中的代理透明度和可靠性:对用户信心和感知可靠性的影响”。 

涉及人类代理团队的传统研究使用完全可靠、不会出错的智能代理。 然而,这项新研究是为数不多的探索代理透明度如何与代理可靠性相互作用的研究之一。 这项研究涉及一个机器人,该机器人在人类观看时犯了错误,然后人类被问到他们是否认为机器人不太可靠。 在整个过程中,人类深入了解了机器人的推理过程。 

朱莉娅·赖特博士是该项目的首席研究员,也是美国陆军作战能力发展司令部陆军研究实验室(ARL)的研究员。 

她说:“了解机器人的行为如何影响其人类队友对于有效的人机团队的发展以及团队成员之间的界面和通信方法的设计至关重要。这项研究有助于陆军的多域作战努力确保人工智能支持的能力处于领先地位。 但它也是跨学科的,因为它的发现将为心理学家、机器人学家、工程师和系统设计师的工作提供信息,他们致力于促进人类和自主代理之间更好的理解,努力打造自主队友而不仅仅是工具。”

这个新项目是一个名为“自主小队成员”(ASM) 项目的大型项目的一部分,该项目由国防部长办公室的自主研究试点计划赞助。 ASM 是一种实际的小型地面机器人,用于步兵班。 它能够与小队进行沟通和互动。 

该研究涉及参与者在模拟环境中观察人类代理士兵团队。 ASM 是该团队的一部分,并且通过了培训课程。 观察员的任务是监视团队并评估机器人。 在整个训练过程中,团队遇到了各种不同的事件和障碍。 士兵们能够正确地导航每一个机器人,但有时机器人无法理解障碍物并犯错误。 然后,机器人有时会分享某些行为背后的推理以及预期结果。 

研究发现,与机器人错误背后的逻辑和推理相比,参与者更关心机器人的错误。 机器人的可靠性在参与者的信任和感知中发挥着重要作用。 每当机器人犯错时,观察者就会降低它的可靠性。 

只要代理透明度增加,或者机器人分享其决策背后的细节和推理,可靠性和信任就会增加。 然而,可靠性和信任度仍然低于从未犯过错误的机器人。 这表明共享推理和底层逻辑可以帮助解决围绕机器人的一些信任和可靠性问题。 

“早期的研究表明,背景对于确定透明度信息的有用性很重要,”赖特说。 “我们需要更好地了解哪些任务需要更深入地理解智能体的推理,以及如何辨别这种深度需要什么。 未来的研究应该探索根据任务要求提供透明度信息的方法。”

由于人类和机器人之间的互动日益增多,这项新研究将在该领域发挥关键作用。 最重要的领域之一是军事。 从这些演习中可以看出,机器人和士兵最终将并肩作战。 正如一名士兵必须信任另一名士兵一样,这同样适用于机器人。 如果这一目标能够实现,并且机器人在步兵班中变得司空见惯,这将是人工智能渗透国防工业的又一实例。

 

Alex McFarland 是一位人工智能记者和作家,致力于探索人工智能的最新发展。他与全球众多人工智能初创公司和出版物合作。