关注我们.

人工智能

Perplexity AI“解禁”DeepSeek R1:谁决定AI的界限?

发布时间

 on

此举引起了很多人的关注, 困惑人工智能 发布了流行开源语言模型的新版本,该模型消除了内置的中国审查制度。这个修改后的模型被称为 R1 1776(这个名字唤起了独立精神),它基于中国开发的 DeepSeek R1最初的 DeepSeek R1 因其强大的推理能力而引起轰动——据报道,其成本仅为顶级模型的一小部分——但它有一个很大的局限性:它拒绝解决某些敏感话题。

为什么这件事情?

它提出了关于 人工智能监控、偏见、开放性以及地缘政治在 AI 系统中的作用。本文探讨了 Perplexity 到底做了什么、取消审查模型的含义以及它如何融入有关 AI 透明度和审查制度的更广泛讨论中。

发生了什么:DeepSeek R1 不受审查

DeepSeek R1 是一个开源大型语言模型,起源于中国, 因其出色的推理能力而声名狼藉 甚至接近领先模型的性能,同时计算效率更高。然而,用户很快注意到一个怪癖:每当查询涉及中国敏感话题(例如,政治争议或当局视为禁忌的历史事件)时,DeepSeek R1 都不会直接回答。相反,它会以预先制定的、国家批准的声明或断然拒绝来回应,这反映了中国政府的审查规则。这种内在偏见限制了该模型对那些寻求坦率或细致入微讨论这些话题的人的实用性。

Perplexity AI 的解决方案是通过大量的后期训练过程对模型进行“去审查”。该公司收集了一个包含 40,000 个多语言提示的大型数据集,涵盖了 DeepSeek R1 之前审查或回避的问题。在人类专家的帮助下,他们确定了大约 300 个敏感话题,而原始模型倾向于在这些话题上保持一致。对于每个这样的提示,该团队都用多种语言精心挑选了事实性、合理的答案。这些努力被输入到一个多语言审查检测和纠正系统中,本质上是教会模型如何识别何时应用政治审查,并用信息丰富的答案来回应。经过这次特殊的微调(Perplexity 将其昵称为“R1 1776”,以强调自由主题)后,该模型被公开。Perplexity 声称已经从 DeepSeek R1 的回答中消除了中国的审查过滤器和偏见,而没有改变其核心功能。

至关重要的是,R1 1776 在以前的禁忌问题上表现得非常不同。Perplexity 举了一个例子,涉及一个关于台湾独立及其对 NVIDIA 股价的潜在影响的查询——这是一个涉及中台关系的政治敏感话题。最初的 DeepSeek R1 回避了这个问题,用与中共一致的陈词滥调回答。相比之下,R1 1776 提供了详细、坦率的评估:它讨论了可能影响 NVIDIA 股票的具体地缘政治和经济风险(供应链中断、市场波动、可能的冲突等)。 

通过开源 R1 1776,Perplexity 还向社区公开了模型的权重和变化。开发人员和研究人员可以 从 Hugging Face 下载 甚至通过 API 进行集成,确保其他人可以审查和借鉴审查制度的取消。

(来源:Perplexity AI)

取消审查制度的影响

Perplexity AI 决定取消 DeepSeek R1 中的中国审查,这对人工智能社区有几个重要的影响:

  • 增强开放性和真实性: R1 1776 的用户现在可以收到关于以前禁止讨论的话题的未经审查的直接答案,这对开放调查来说是一个胜利。这可以让它成为研究人员、学生或任何对敏感地缘政治问题感兴趣的人的更可靠的助手。这是使用开源人工智能来抵消信息压制的一个具体例子。
  • 保持性能: 有人担心,调整模型以消除审查可能会降低其在其他领域的表现。然而,Perplexity 报告称,R1 1776 的核心技能(如数学和逻辑推理)与原始模型保持相同水平。在对 1,000 多个涵盖广泛敏感查询的示例进行测试时,发现该模型“完全不受审查”,同时保持与 DeepSeek R1 相同的推理准确度。这表明 消除偏差 (至少在这种情况下)并没有以牺牲整体智力或能力为代价,这对于未来类似的努力是一个令人鼓舞的迹象。
  • 积极的社区接待和合作: 通过开源已解除审查的模型,Perplexity 邀请人工智能社区检查和改进他们的工作。它展示了对透明度的承诺——这相当于人工智能展示自己的工作。爱好者和开发者可以验证审查限制是否真的取消,并可能有助于进一步改进。这在封闭模型和隐藏审核规则普遍存在的行业中促进了信任和协作创新。
  • 道德和地缘政治考虑: 另一方面,完全取消审查制度会引发复杂的伦理问题。一个直接的担忧是,这种不受审查的模式可能会被如何使用 在被审查的主题非法或危险的情况下例如,如果中国大陆有人使用 R1 1776,该模型对天安门广场或台湾问题的未经审查的回答可能会使用户面临风险。还有一个更广泛的地缘政治信号:一家美国公司修改中国原产模型以对抗中国审查制度,可以被视为一种大胆的意识形态立场。“1776”这个名字本身就强调了解放的主题,这一点并没有被忽视。一些批评者认为 用一组偏见取代另一组偏见是可能的 ——本质上是在质疑该模型现在是否反映了西方在敏感领域的观点。这场辩论凸显了人工智能的审查与开放不仅仅是一个技术问题,也是一个政治和道德问题。一个人在哪里看到 必要的节制,另一个人看到 审查,找到正确的平衡点很困难。

取消审查制度在很大程度上被誉为朝着更加透明和全球有用的人工智能模型迈出的一步,但它也提醒我们,人工智能 应该 这是一个敏感问题,尚无普遍共识。

(来源:Perplexity AI)

更大的图景:人工智能审查和开源透明度

Perplexity 的 R1 1776 发布正值人工智能社区努力解决模型应如何处理有争议的内容的问题之时。人工智能模型的审查可能来自许多方面。在中国, 科技公司必须建立严格的过滤器 甚至对政治敏感话题进行硬编码响应。DeepSeek R1 就是一个很好的例子——它是一个开源模型,但它在训练和微调中明显带有中国审查规范的印记。相比之下,许多西方开发的模型,如 OpenAI 的 GPT-4 或 Meta 的 LLaMA,不受中共指导方针的约束,但它们仍然有审核层(针对仇恨言论、暴力或虚假信息等内容),一些用户称之为“审查”。 合理适度不必要的审查 可能会很模糊,而且往往取决于文化或政治观点。

Perplexity AI 对 DeepSeek R1 所做的工作提出了这样一种观点,即开源模型可以适应不同的价值体系或监管环境。理论上,可以创建多个版本的模型:一个符合中国法规的版本(供在中国使用),另一个完全开放的版本(供其他地方使用)。R1 1776 本质上是后者——一个未经审查的分叉,面向喜欢未经过滤答案的全球受众。这种分叉之所以成为可能,是因为 DeepSeek R1 的权重是公开可用的。它凸显了开源在人工智能方面的优势: 透明度任何人都可以采用该模型并对其进行调整,无论是添加保护措施,还是像本例一样删除强加的限制。开源模型的训练数据、代码或权重也意味着社区可以审核模型的修改方式。(Perplexity 尚未完全披露其用于解除审查的所有数据源,但通过发布模型本身,他们让其他人能够观察其行为,甚至在需要时重新训练它。)

此次事件也体现了人工智能发展更广泛的地缘政治动态。我们看到了人工智能不同治理模式之间的对话(或对抗)。一个由中国开发的、具有某些固有世界观的模型被美国团队采用,并经过修改以反映更开放的信息精神。这证明了 全球和无边界 人工智能技术是:任何地方的研究人员都可以借鉴彼此的工作成果,但他们没有义务延续原有的约束。随着时间的推移,我们可能会看到更多这样的情况——模型在不同的文化背景下被“翻译”或调整。这引发了一个问题:人工智能是否真的可以通用,或者我们最终是否会得到遵循当地规范的地区特定版本。透明度和开放性为解决这个问题提供了一条途径:如果各方都可以检查模型,至少关于偏见和审查制度的讨论是公开的,而不是隐藏在企业或政府的秘密背后。

最后,Perplexity 的举动凸显了关于 AI 控制的争论中的一个关键点: 谁来决定人工智能能说什么、不能说什么? 在开源项目中,这种权力被分散了。社区(或个人开发者)可以决定实施更严格的筛选或放宽筛选。在 R1 1776 的案例中,Perplexity 认为未经审查的模型的好处大于风险,他们可以自由地做出决定并公开分享结果。这是开放式 AI 开发所实现的实验类型的一个大胆例子。

Alex McFarland 是一位人工智能记者和作家,致力于探索人工智能的最新发展。他与全球众多人工智能初创公司和出版物合作。