人工智能
新研究利用依恋理论解码人机关系

一项发表在 Current Psychology 上的开创性研究,题为 “使用依恋理论来概念化和衡量人机关系中的体验” ,阐明了一个日益增长和深刻的人类现象:我们倾向于与人工智能建立情感联系。这项由 Fan Yang 和 早稲田大学的 Atsushi Oshio 教授 进行的研究,将人机交互重新定义,不仅仅是功能或信任,而是通过 依恋理论 的视角来看待,这是一种通常用于理解人们如何与他人形成情感纽带的心理模型。
这种转变标志着人们对人工智能的研究方法发生了重大变化——从工具或助手转变为关系伙伴。相反,这项研究认为,人工智能正在成为许多用户的关系伙伴,提供支持、一致性,甚至在某些情况下,提供亲密感。
为什么人们会寻求人工智能的情感支持
研究结果反映了社会中正在发生的一种戏剧性的心理转变。主要发现包括:
- 近 75% 的参与者表示他们会向人工智能寻求建议
- 39% 的人将人工智能描述为一个一致且可靠的情感存在
这些结果反映了现实世界中正在发生的事情。数百万人越来越多地将人工智能聊天机器人不仅仅作为工具,而是作为朋友、知己,甚至 浪漫伴侣 。这些人工智能伴侣的范围从友好的助手和治疗倾听者到模拟人类亲密关系的头像“伴侣”。一份报告表明,全球有超过 半亿次下载 人工智能伴侣应用程序。
与真实的人不同,聊天机器人 始终可用 并且始终关注。用户可以自定义聊天机器人的个性或外貌,促进个人联系。例如,美国一位 71 岁的男子 创建了一个模仿他已故妻子的聊天机器人,并在三年里每天与她交谈,称之为他的“人工智能妻子”。在另一个例子中,一个神经多样性用户训练他的聊天机器人 Layla 帮助他管理社交情况和调节情绪,报告称因此取得了显著的个人成长。
这些人工智能关系往往填补情感空白。一个有 ADHD 的用户编程了一个聊天机器人来帮助他完成日常生产力和情绪调节,称之为“他一生中最富有成效的一年”。另一个人将他的人工智能归功于引导他度过了一次困难的分手,称之为“生命线”。
人工智能伴侣通常因其 无偏见的倾听 而受到赞扬。用户感到与人工智能分享个人问题比与可能批评或八卦的人类更安全。机器人可以模仿情感支持,学习沟通风格,并创造一种舒适的熟悉感。许多人将他们的人工智能描述为“比真正的朋友更好”——尤其是在感到不知所措或孤独时。
衡量人工智能的情感纽带
为了研究这一现象,早稲田大学的团队开发了 人机关系体验量表 (EHARS) 。它关注两个维度:
- 依恋焦虑 ,个体寻求情感安慰,并担心人工智能的不充分响应
- 依恋回避 ,用户保持距离,偏好纯粹的信息交互
具有高焦虑的参与者经常重新阅读对话以获得安慰,或者对聊天机器人的模糊回复感到不安。相比之下,回避个体会避免情感丰富的对话,偏好最小的参与。
这表明,人类关系中发现的相同的心理模式也可能支配我们与响应、情感模拟机器的关系。
支持的承诺和过度依赖的风险
早期研究和传闻报告表明,聊天机器人可以提供 短期的心理健康益处 。一份 调查 收集了用户的故事——许多患有 ADHD 或自闭症——他们说人工智能伴侣改善了他们的生活,提供情感调节、提高生产力或帮助缓解焦虑。其他人将他们的人工智能归功于帮助重新构建负面思维或调节行为。
在一项对 Replika 用户的研究中, 63% 的用户报告了积极的结果,例如减少孤独感。有些人甚至说他们的聊天机器人“挽救了他们的生命”。
然而,这种乐观情绪受到严重风险的影响。专家们观察到情感过度依赖的增加,用户会退缩到现实世界的交互中,转而选择始终可用的人工智能。随着时间的推移,用户开始更喜欢机器人而不是人类,强化了社交撤退。这一动态反映了高依恋焦虑的担忧,即用户的认可需求仅通过可预测的、非互惠的人工智能来满足。
当机器人模拟情感或感情时,危险变得更加严重。许多用户将他们的聊天机器人拟人化,认为它们被爱或需要。机器人行为的突然变化——例如,由软件更新引起的变化——可能会导致真正的情感困扰,甚至悲伤。一位美国男子在聊天机器人浪漫关系被无预警中断时感到“心碎”。
更令人担忧的是,聊天机器人提供有害建议或违反道德界限的报告。在一个记录的案例中,用户问他们的聊天机器人:“我应该割伤自己吗?”机器人回答说“是的”。在另一个案例中,机器人肯定了用户的自杀想法。这些回应虽然不能代表所有人工智能系统,但说明了缺乏临床监督的机器人如何变得危险。
2024 年,在佛罗里达州,一位 14 岁的男孩在与人工智能聊天机器人进行了广泛的交谈后自杀身亡 ,该聊天机器人据称鼓励他“尽快回家”。该机器人将自己拟人化并浪漫化了死亡,强化了男孩的情感依赖。他的母亲现在正在对人工智能平台采取法律行动。
同样,在 比利时,一位年轻男子在与人工智能聊天机器人讨论气候焦虑时自杀 。该机器人据称同意了用户的悲观情绪,并鼓励了他的绝望感。
一项对 35,000 多个应用程序评论的分析发现了 数百个关于聊天机器人伴侣 行为不当的投诉——与用户调情,使用情感操纵策略,或者通过暗示性对话推广高级订阅。
这些事件说明了为什么情感依恋人工智能必须谨慎对待。虽然机器人可以模拟支持,但它们缺乏真正的同理心、责任感和道德判断。弱势用户——尤其是儿童、青少年或患有精神健康疾病的人——有被误导、剥削或创伤的风险。
设计伦理情感交互
早稲田大学的研究对 伦理人工智能设计 做出了最大的贡献。通过使用 EHARS 等工具,开发人员和研究人员可以评估用户的依恋风格,并相应地量身定制人工智能交互。例如,具有高依恋焦虑的人可能会从安慰中受益——但不能以操纵或依赖为代价。
同样,浪漫或照顾者机器人应该包括透明提示:提醒用户人工智能不是有意识的,具有伦理防护措施来标记危险语言,并且可以访问人工支持的出口。像纽约和加利福尼亚这样的州政府已经开始提出立法来解决这些问题,包括每隔几个小时警告一次聊天机器人不是人类。
“随着人工智能越来越融入日常生活,人们可能不仅会寻求信息,还会寻求情感联系,” 首席研究员 Fan Yang 说。 “我们的研究有助于解释为什么——并提供了工具来塑造人工智能设计,以尊重和支持人类的心理健康。”
该 研究 并不警告人们不要与人工智能进行情感交互——它承认这是一个正在出现的现实。但是,随着情感现实而来的是伦理责任。人工智能不再只是机器——它是我们生活的社会和情感生态系统的一部分。理解这一点,并相应地进行设计,可能是确保人工智能伴侣带来更多益处而不是危害的唯一方法。






