Connect with us

机器人

研究表明,机器人伪装成人类时更具说服力

mm

人工智能的进步已经创造了可以通过数字媒体与人类交流的机器人和机器。最近,一组计算机科学研究人员研究了当人类认为机器人也是人类时,机器人/机器和人类之间的互动。 据ScienceDaily报道,该研究的结果发现,当人们认为聊天机器人是人类时,他们会觉得机器人/聊天机器人更具说服力。

Talal Rahwan,纽约大学阿布扎比分校的计算机科学副教授,最近领导了一项研究,研究了机器人和人类之间的互动。该实验的结果发表在Nature Machine Intelligence上,题为Transparency-Efficiency Tradeoff in Human-Machine Cooperation。在研究过程中,测试对象被指示与一个合作伙伴玩一个合作游戏,合作伙伴可能是人类或机器人。

游戏是经典的囚徒困境的变体,参与者必须决定是否与对方合作或背叛对方。在囚徒困境中,一方可能选择背叛对方以获得利益,而只有通过合作,双方才能确保获得利益。

研究人员通过向测试对象提供关于合作伙伴身份的正确或错误信息来操纵他们。一些参与者被告知他们正在与机器人玩,即使他们的合作伙伴实际上是人类。其他参与者处于相反的情况。实验过程中,研究团队能够量化人们在被告知合作伙伴是机器人时是否对合作伙伴的态度有所不同。研究人员跟踪了对机器人的偏见的程度以及这些态度如何影响自我认同的机器人之间的互动。

实验的结果表明,当人类认为机器人也是人类时,机器人更能从合作伙伴那里引发合作。然而,当机器人被揭露为机器人时,合作水平下降。Rahwan解释说,虽然许多科学家和伦理学家同意人工智能应该在决策过程中透明,但不清楚他们是否应该在与他人交流时透明地表明自己的性质。

去年,Google Duplex在舞台演示中展示了其能够代表用户打电话和预约,生成的类似人类的语音如此复杂,以至于如果没有被告知他们正在与机器人交谈,很多人会把它误认为是真人。自从Google Duplex首次亮相以来,许多人工智能和机器人伦理学家对该技术表示担忧,促使Google表示它将在未来让代理自我识别为机器人。目前,Google Duplex仅在非常有限的范围内使用。它将在新西兰使用,但仅用于检查商业营业时间。伦理学家仍然担心该技术可能被滥用的程度。

Rahawan认为,最近的研究表明,我们应该考虑为透明度付出的代价:

“开发这样的系统是否合乎道德?我们应该禁止机器人伪装成人类,强迫它们透明地表明自己的身份吗?如果答案是‘是’,那么我们的发现强调了需要为透明度付出的效率成本。”

博客作者和程序员,专攻 Machine Learning Deep Learning 领域。Daniel 希望帮助他人利用 AI 的力量为社会做好事。