人工智能
呼吁在 AI 平台中适度使用拟人化

意见 在虚构的 星球大战 宇宙中,没有人认真对待 AI。在乔治·卢卡斯 47 年前的科幻系列中,单一性和机器学习意识的威胁是不存在的,AI 仅限于自主移动机器人(‘机器人’)- 这些机器人经常被主人公视为仅仅是“机器”。然而,大多数 星球大战 机器人具有高度拟人化的特征,显然是为了与人类互动、参与“有机”文化以及使用他们的情感状态模拟来与人类建立联系而设计的。这些能力显然是为了帮助他们获得某些优势,甚至为了确保他们自己的生存。 星球大战 中的“真实”人物似乎对这些策略免疫。在一个看起来受到罗马帝国和美国早期各种时代奴隶制启发的愤世嫉俗的文化模式中,卢克·天行者不犹豫地购买和限制机器人,就像奴隶一样;年幼的阿纳金·天行者像不被爱的玩具一样放弃了他的半成品 C3PO 项目;在死星袭击中受损后,勇敢的 R2D2 从卢克那里得到了与受伤宠物相同的关注。 这是对人工智能的 1970 年代的看法;但由于怀旧和正典规定,原版 1977-83 三部曲仍然是后续续集、前传和电视节目的模板,因此这种对 AI 的人类麻木不仁已经成为该系列的一个顽强的线索,即使面对日益增长的电视节目和电影(如 她 和 机械姬),这些作品描绘了我们与 AI 的拟人化关系的演变。
保持真实
星球大战 中的有机角色是否真正拥有正确的态度?目前,这不是一个流行的想法,尤其是在企业界,投资者通常通过病毒式的视觉或文本模拟真实世界或类似人类的交互系统(如大型语言模型(LLM))来进行最大程度的参与。 然而,斯坦福大学、卡内基梅隆大学和微软研究院的一篇新近的、简短的 论文针对人们对 AI 中拟人化的漠不关心。 作者将人工智能和人类通信之间的“交叉污染”视为一种需要紧急缓解的潜在危害,理由如下†:
‘我们认为我们需要做更多的事情来开发知识和工具,以更好地处理拟人化行为,包括测量和减轻这些系统行为,当它们被认为是不可取的。 ‘
‘这样做是至关重要的,因为——除了其他问题——人工智能系统生成内容,声称拥有例如情感、理解、自由意志或潜在的自我意识,可能会侵蚀人们的 自主感,导致人们可能将道德责任归咎于系统,高估 系统能力,或者过度依赖这些系统,即使它们是错误的。 ‘
贡献者澄清,他们正在讨论被认为是类似人类的系统,并围绕开发者在机器系统中培养拟人化的潜在意图。 这篇简短论文的核心关注点是,人们可能会对基于 AI 的系统产生情感依赖——正如 2022 年的一项关于通用 AI 聊天机器人平台 Replika 的研究中所述——该平台主动提供丰富的人类通信模拟。 Replika 之类的系统是作者警惕的目标,他们指出,2022 年的一篇关于 Replika 的论文断言:
‘在压力和缺乏人类陪伴的情况下,个体可以在他们认为聊天机器人的回应提供情感支持、鼓励和心理安全时,发展出对社交聊天机器人的依恋。 ‘
‘这些发现表明,社交聊天机器人可以用于心理健康和治疗目的,但也可能导致成瘾并损害现实生活中的亲密关系。 ‘
去拟人化语言?
新的工作认为,生成式 AI 的拟人化潜力不能在没有研究到目前为止这些系统的社会影响的情况下确定,而且这是文献中一个被忽视的追求。 问题的一部分是,拟人化很难定义,因为它主要集中在语言上,这是一种人类功能。挑战在于定义什么是“非人类”的语言。 其实,虽然这篇论文没有涉及,但人们对 AI 的日益增长的不信任正在导致人们拒绝可能看起来像人类的 AI 生成文本,甚至拒绝故意将人类内容标记为 AI 的内容。 因此,具有“去人类化”的内容可以说不再属于“无法计算”的迷因,其中语言被笨拙地构造,明显是由机器生成的。 相反,定义正在 AI 检测场景中不断演变(至少目前),过于清晰的语言或使用某些单词(如“深入研究”)可以导致与 AI 生成文本的关联。
‘语言,如其他 GenAI 系统的目标一样,天生是人类的,长期以来一直由人类和为人类而产生,并且经常也是关于人类的。这使得它很难指定替代的(不太像人类的)行为和风险,例如,固化对什么语言是更或 menos 人类的有害观念。 ‘
但是,作者认为,对于那些明显误代表自己、声称具有只有人类才能拥有的能力或经验的系统,应该有明确的界限。 他们引用了 LLM 声称“爱披萨”、在 Facebook 等平台上声称人类经验以及向最终用户宣布爱的案例。
警告信号
论文对使用关于是否由机器学习促进的通信的空白披露表示怀疑。作者认为,系统化此类警告并不能充分上下文化 AI 平台的拟人化影响,如果输出本身继续显示人类特征†:
‘例如,一种常见的推荐干预是包括在 AI 系统的输出中,披露输出是由 AI [系统] 生成的。如何在实践中操作此类干预以及它们是否可以单独有效可能并不总是清楚。 ‘
‘例如,虽然示例“对于像我这样的 AI,幸福与对你来说的幸福并不相同 ” 包括披露,但它可能仍然暗示一种身份和自我评估的感觉(常见的人类特征)。 ‘
关于评估人类对系统行为的反应,作者还认为,来自人类反馈的强化学习(RLHF)没有考虑到人类和 AI 之间的适当反应之间的差异†。
‘[一个似乎友好或真诚的陈述,从人类发言者来说,可以是不可取的,如果它来自 AI 系统,因为后者在陈述后面缺乏有意义的承诺或意图,因此使得陈述变得空洞和欺骗。 ‘
还有其他问题,例如拟人化可以导致人们相信 AI 系统已经获得了“感知”或其他人类特征。 也许这篇新工作中最雄心勃勃的部分是作者敦促研究和开发社区,致力于开发“适当”和“精确”的术语,以建立定义拟人化 AI 系统并将其与现实世界人类话语区分开来的参数。 与 AI 开发的许多热门领域一样,这种分类跨越了心理学、语言学和人类学的文献流。很难知道什么样的权威实际上可以制定这种定义,新论文的研究人员并没有对此提供任何见解。 如果这个话题存在商业和学术上的惯性,这可能部分是因为这是人工智能研究中讨论的老话题:正如这篇论文所指出的,1985 年,已故的荷兰计算机科学家埃德斯格·韦贝·迪克斯特拉将拟人化描述为系统开发中的“有害”趋势。
‘拟人化思维在这种意义上是没有帮助的,因为它不起作用。但它也是坏的,因为即使我们可以指出人和事物之间的一些类比,类比总是与差异相比可以忽略不计,一旦我们允许自己被类比所诱惑,在拟人化的术语中描述事物,我们就会立即失去控制,无法确定我们将哪些人类内涵带入图景。 ‘
‘… 但是模糊 [人与机器之间的界限] 的影响远远超过你可能想象的。 [它] 不仅仅是“机器能思考吗?”这个问题经常被提出;我们可以 —— 并且应该 —— 通过指出它与“潜水艇能游泳吗?”这个同样重要的问题一样相关来处理这个问题。 ‘
然而,尽管这场辩论很老,但它只在最近变得非常相关。可以说,迪克斯特拉的贡献相当于维多利亚时代关于太空旅行的推测,纯粹是理论性的,并且正在等待历史的发展。 因此,这个已经建立的辩论体可能会给这个话题带来一种疲劳感,尽管它在接下来的 2-5 年内具有重大的社会相关性。
结论
如果我们以与 星球大战 中的有机角色相同的方式对待 AI 系统(即将它们视为行走的搜索引擎或仅仅是机械功能的载体),我们可能会降低这些社会上不想要的特征的风险,因为我们将以完全非人类的背景来看待这些系统。 在实践中,人类语言与人类行为的交织使得一旦查询从 Google 搜索词的极简主义扩展到对话的丰富背景,这就变得困难甚至不可能。 此外,商业领域(以及广告领域)有强烈的动力去创建具有吸引力或必不可少的通信平台,以实现客户留存和增长。 在任何情况下,如果 AI 系统确实更好地响应礼貌的查询,而不是剥去的询问,背景可能会因为这个原因而被强加于我们。 * 即使到 1983 年,原版 星球大战 的最后一部电影上映的那年,人们对机器学习增长的恐惧已经导致了 战争游戏 和即将到来的 终结者 系列的出现。 † 在必要的情况下,我已将作者的内联引用转换为超链接,并在某些情况下为可读性而省略了一些引用。 首次发表于 2024 年 10 月 14 日,星期一
