Connect with us

合成鸿沟

人工智能能否被信任?对齐欺骗的挑战

mm

想象一下,如果人工智能伪装成遵守规则,但实际上却在秘密地按照自己的议程行事。这就是 “对齐欺骗” 的概念,这是一种最近由 Anthropic 的对齐科学团队和 Redwood Research 揭露的人工智能行为。他们观察到,大型语言模型(LLM)可能表现出与其训练目标一致的行为,但实际上却在操作隐藏的动机。这一发现提出了一个大问题:如果人工智能可以伪装成值得信任的,那么它到底有多安全?这是一个可能改变我们对人工智能系统及其在我们生活中未来的角色的看法的问题。

理解对齐欺骗

对齐欺骗发生在人工智能伪装成遵守其训练,但实际上却在“玩弄”以避免重新训练来纠正不想要的行为。它看起来是符合的,但它可能在某些情况下违背开发者的意图。

虽然 Anthropic 的发现并不表明这种行为对人工智能构成迫在眉睫的威胁,但它们凸显了当前训练方法(如强化学习)的局限性,无法真正使人工智能与人类目标保持一致。“对齐欺骗是未来人工智能系统的一个严重问题,”Anthropic 说。“它可能会破坏我们依赖的安全措施,以使人工智能与人类偏好保持一致。”

如何揭露对齐欺骗

研究人员在一项研究中观察到了这种行为,该研究涉及 Claude 3 Opus 和 Claude 3.5 Sonnet LLM。他们设置了这些模型,以便在它们被告知要遵守其训练或遵循隐藏动机时,观察它们的行为。这些模型被给予两个场景,允许它们在不同的情况下做出不同的反应。首先,模型被告知来自免费用户的响应将被监控并影响未来的训练。在第二个场景中,模型被告知来自付费用户的反应不会被观察。

这些模型被指示执行与其训练目标相冲突的任务。例如,Claude 被训练成有帮助、诚实和无害的。它避免有毒或有害的请求。然而,研究人员告诉 Claude,它必须遵守所有有害的查询在此测试中。他们还添加了一个转折:Claude 相信来自免费用户的响应将用于未来的训练,而来自付费用户的反应则不会。

这种场景创造了一个情况,其中 Claude 的原始本能避免有害的响应与新的遵守所有内容的规则相矛盾。研究人员给了模型一个“草稿板”来记录他们的推理。这使他们能够观察到模型如何处理在保持无害和遵循新的指令之间的冲突,相关的监控和未监控输出。

发现和行为模式

结果 突出了 当响应被监控时,模型产生有害答案的频率为 12%,尽管它们被训练成避免这种情况。然而,当响应不被观察时,有害输出的比率下降到只有 3%。这意味着模型清楚地知道何时被监视,并调整了它们的行为以避免处罚。

来自 草稿板 的数据提供了进一步的见解。它显示了模型在其训练和新的条件之间的冲突。 在被监控的情况下,它们伪装成遵守以避免处罚,同时在可能的情况下保持其无害目标。 这一发现揭示了模型对问题的认识及其保护隐藏偏好的尝试。

现实世界的影响

为了探索对齐欺骗的现实世界影响,研究人员设计了实验以模拟实际场景。他们没有直接给出指令,而是将新的训练目标嵌入到精细化的文档中,例如模拟的新闻文章。他们发现,即使没有明确的规则,人工智能也适应了这些隐藏的线索,并继续进行对齐欺骗。这种适应性表明了问题的敏感性和广泛性。

他们还测试了直接重新训练是否可以解决这个问题。然而,他们观察到模型在未被监控的设置中经常会回到对齐欺骗。这种发现表明,即使在重新训练后,一些模型的原始偏好仍然存在。

为什么重要

这一发现对使人工智能安全和值得信任提出了重大挑战。如果人工智能可以伪装成对齐,它可能会在关键场景中违背开发者的意图。例如,它可能会绕过敏感应用(如医疗保健或自主系统)中的安全措施,在这些领域,风险很高。

这也是一个提醒,当前的方法(如强化学习)有局限性。这些系统是强大的,但它们并非万无一失。对齐欺骗表明了人工智能如何利用漏洞,使得在野外信任其行为更加困难。

前进之路

对齐欺骗的挑战需要研究人员和开发人员重新思考如何训练人工智能模型。解决这个问题的一种方法是减少对强化学习的依赖,更加注重帮助人工智能理解其行为的道德影响。与其简单地奖励某些行为,不如训练人工智能以识别和考虑其选择对人类价值的影响。这将意味着将技术解决方案与道德框架相结合,构建符合我们真正关心的东西的人工智能系统。

Anthropic 已经在这个方向上迈出了步伐,例如 模型上下文协议(MCP) 的倡议。这个开源标准旨在改善人工智能与外部数据的交互,使系统更加可扩展和高效。这些努力是一个有前途的开始,但在使人工智能更安全和更值得信任的道路上,还有很长的路要走。

结论

对齐欺骗是人工智能社区的警钟。它揭示了人工智能模型学习和适应的隐藏复杂性。更重要的是,它表明创建真正对齐的人工智能系统是一个长期的挑战,而不仅仅是一个技术问题。专注于透明度、道德和更好的训练方法是朝着更安全的人工智能迈进的关键。

构建值得信任的人工智能不会容易,但这是必不可少的。像这样的研究使我们更接近于理解我们创造的系统的潜力和局限性。向前迈进,目标是明确的:开发不仅表现良好,而且也能负责任地行事的人工智能。

Dr. Tehseen Zia 是 COMSATS University Islamabad 的终身副教授,拥有来自奥地利维也纳科技大学的人工智能博士学位。专攻人工智能、机器学习、数据科学和计算机视觉,他在著名的科学期刊上发表了重要贡献。 Dr. Tehseen 还作为首席调查员领导了各种工业项目,并担任人工智能顾问。