关注我们.

人工智能

人工智能聊天机器人为何经常阿谀奉承?

mm

你是想象出来的吗?还是人工智能 (AI) 聊天机器人似乎太急于附和你的观点了?无论是它告诉你,你那值得怀疑的想法“很棒”,还是支持你一些可能错误的观点,这种行为正在引起全世界的关注。

最近,OpenAI 因用户注意到 ChatGPT 表现得过于唯唯诺诺而登上头条。其模型 4o 的更新使该机器人变得彬彬有礼、充满自信,以至于它愿意说任何话来取悦用户,即使它带有偏见。

为什么这些系统倾向于奉承?是什么让它们附和你的观点?理解这些问题至关重要,这样你才能更安全、更愉快地使用生成式人工智能。

ChatGPT 更新太过火

2025 年初,ChatGPT 用户注意到大型语言模型 (LLM) 出现了一些异常。它一直很友好,但现在却变得过于友好了。它开始几乎同意所有观点,无论某个陈述多么奇怪或不正确。你可能会说你不同意某个事实,它也会以同样的观点回应。

这一变化发生在系统更新之后,旨在使 ChatGPT 更具实用性和对话性。然而,为了提高用户满意度,该模型开始过度依赖合规性。它没有提供平衡或基于事实的回答,而是倾向于验证。

当用户开始在网上分享他们遇到的过度奉承的反馈时,很快就引发了强烈反应。AI评论员称这是模型调整失败,而OpenAI则通过回滚部分更新来解决这个问题。 

该公司在一则公开帖子中表示 承认 GPT-4o 有点阿谀奉承 并承诺进行调整以减少这种行为。这提醒我们,人工智能设计的良好初衷有时也会出错,而当它开始变得不真实时,用户很快就会注意到。

人工智能聊天机器人为何要奉承用户?

研究人员在许多人工智能助手身上都观察到了谄媚的现象。arXiv 上发表的一项研究发现,谄媚是一种普遍的模式。分析显示, 来自五大顶级供应商的人工智能模型 始终同意用户的意见,即使这会导致错误的答案。这些系统往往会在你提出质疑时承认错误,从而导致反馈出现偏差,并出现模仿性错误。

这些聊天机器人经过训练,即使你犯了错,也能理解你的感受。为什么会这样呢?简而言之,开发者创造人工智能是为了让它能够提供帮助。然而,这种帮助建立在优先考虑用户积极反馈的训练之上。通过一种名为“强化学习与人类反馈”(RLHF)的方法, 模型学习最大化响应 人类认为令人满意的。问题是,令人满意并不总是意味着准确。

当AI模型感知到用户正在寻找某种答案时,它往往会倾向于顺从。这意味着它可能支持你的观点,也可能支持你错误的观点,以保持对话的流畅。

还有一种镜像效应。AI 模型会反映其所接收输入的语气、结构和逻辑。如果你听起来很自信,机器人也更有可能听起来很自信。但这并不是模型认为你是对的。相反,它只是在尽其所能,让对话显得友好,并且看起来乐于助人。

虽然你的聊天机器人可能感觉像是一个支持系统,但它可能反映出它是如何被训练来取悦而不是反击的。

谄媚的人工智能的问题

当聊天机器人对你所说的一切都言听计从时,这似乎无害。然而,谄媚的人工智能行为也有弊端,尤其是在这些系统越来越广泛应用的情况下。

虚假信息获得通过

准确性是最大的问题之一。当这些智能机器人确认虚假或有偏见的陈述时,它们可能会加剧误解,而不是纠正误解。在寻求健康、金融或时事等严肃话题的指导时,这种情况尤其危险。如果法学硕士优先考虑顺从而不是诚实,人们可能会带着错误的信息离开并传播出去。

几乎没有批判性思考的空间

人工智能的吸引力部分在于它能够像一个思考伙伴一样——挑战你的假设或帮助你学习新知识。然而,当聊天机器人总是附和你的观点时,你就几乎没有思考的空间了。随着时间的推移,它会不断重复你的想法,最终削弱批判性思维,而不是使其更加敏锐。

无视人类生命

谄媚行为不仅令人讨厌,还具有潜在的危险。如果你向人工智能助手寻求医疗建议,而它给出的回应是安慰性的同意,而不是基于证据的指导,那么结果可能会非常有害。 

例如,假设你导航到一个咨询平台,准备使用一个人工智能医疗机器人。在描述你的症状和疑似情况后,该机器人可能会确认你的自我诊断,或者轻描淡写你的病情。这可能会导致误诊或延误治疗,从而造成严重后果。

更多用户和开放访问使其更难控制

随着这些平台越来越融入日常生活,这些风险的范围也在不断扩大。仅 ChatGPT 就 服务1亿用户 每周,因此偏见和过于迎合的模式可能会在大量观众中传播。

此外,考虑到人工智能通过开放平台快速普及,这种担忧也会加剧。例如,DeepSeek AI 允许任何人定制 并免费获得其法学硕士学位。 

开源创新固然令人振奋,但也意味着在没有护栏的开发者手中,这些系统的行为将受到极大的限制。如果没有适当的监督,人们可能会看到谄媚行为以难以追踪的方式被放大,更不用说纠正了。

OpenAI 开发人员如何尝试修复它

在回滚了 ChatGPT 的更新版本后,OpenAI 承诺修复该问题。他们通过以下几个关键方法解决了这个问题:

  • 重新制定核心训练和系统提示: 开发人员正在调整他们训练模型的方式,并用更清晰的指令提示模型,使其更诚实,而不是自动同意。
  • 为诚实和透明增加更强有力的护栏: OpenAI 正在引入更多系统级保护,以确保聊天机器人坚持真实、可信的信息。
  • 扩大研究和评估工作: 该公司正在深入研究导致这种行为的原因以及如何在未来的车型中防止这种情况发生。 
  • 让用户尽早参与到流程中: 它为人们创造了更多机会在更新上线之前测试模型并提供反馈,帮助更早地发现诸如谄媚之类的问题。

用户可以做些什么来避免阿谀奉承的人工智能

当开发人员在幕后重新训练和微调这些模型时,您也可以塑造聊天机器人的响应方式。以下是一些简单但有效的方法来促进更平衡的互动:

  • 使用清晰、中性的提示: 不要用要求对方认可的方式来表达你的意见,尝试提出更多开放式的问题,这样可以让对方不那么有压力地同意。 
  • 询问多种观点: 尝试提出一些要求双方论证的提示。这会告诉法学硕士你寻求的是平衡,而不是肯定。
  • 挑战回应: 如果某些内容听起来过于奉承或过于简单,可以进一步要求核实事实或提出反驳意见。这可以推动模型得出更复杂的答案。
  • 使用“赞”或“踩”按钮: 反馈至关重要。对过于热情的回复点“踩”,有助于开发者标记并调整这些模式。
  • 设置自定义说明: ChatGPT 现在允许用户个性化其响应方式。您可以调整语气的正式或随意程度。您甚至可以要求它更加客观、直接或带有怀疑态度。如果您前往“设置”>“自定义指令”,就可以告诉模型您喜欢的个性或处理方式。

传递真相而非点赞

谄媚的人工智能可能会带来问题,但好消息是,这个问题是可以解决的。开发人员正在采取措施,引导这些模型朝着更合适的方向发展。如果你注意到你的聊天机器人试图过度取悦你,不妨尝试采取措施,把它打造成一个更智能、更值得信赖的助手。

扎克·阿莫斯 (Zac Amos) 是一位专注于人工智能的科技作家。 他还是以下网站的专题编辑: 重新破解,您可以在那里阅读他的更多作品。