人工智能
随着美国人工智能领先地位的减弱,OpenAI、Anthropic 和谷歌敦促采取行动

美国领先的人工智能公司 OpenAI、Anthropic 和谷歌警告联邦政府,美国在人工智能领域的技术领先优势“并不大,而且正在缩小”,因为中国模型 Deepseek R1 展现出不断增强的功能根据向美国政府提交的一份文件,该文件是针对开发 人工智能行动计划.
这些最近于 2025 年 XNUMX 月提交的文件强调了对国家安全风险、经济竞争力的迫切担忧,以及在全球竞争日益激烈和中国在该领域获得国家补贴的进步的情况下,需要战略监管框架来保持美国在人工智能发展方面的领导地位。 人类的 和 Google 于 6 年 2025 月 XNUMX 日提交了答复,而 OpenAI 的提交 随后于 13 年 2025 月 XNUMX 日发布。
中国挑战赛和 Deepseek R1
中国Deepseek R1模型的出现引发了美国主要人工智能开发商的极大担忧,他们认为这并非优于美国技术,而是技术差距正在迅速缩小的有力证据。
OpenAI 明确警告称,“Deepseek 表明我们的领先优势并不大,而且正在缩小”,将该模型描述为“同时受到国家补贴、国家控制和免费提供”——他们认为这种组合对美国利益和全球人工智能发展特别构成威胁。
根据 OpenAI 的分析,Deepseek 带来的风险与中国电信巨头华为的风险类似。OpenAI 在其提交的报告中表示:“与华为一样,在关键基础设施和其他高风险用例中基于 DeepSeek 模型进行构建存在重大风险,因为 DeepSeek 可能会被中共强迫操纵其模型造成伤害。”
该公司进一步提出了对数据隐私和安全的担忧,并指出中国法规可能要求 Deepseek 与政府共享用户数据。这可能使中国共产党能够开发符合国家利益的更先进的人工智能系统,同时损害个人隐私。
Anthropic 的评估主要侧重于生物安全影响。他们的评估显示,Deepseek R1“符合大多数生物武器化问题的答案,即使是带有明显恶意的意图。”这种愿意提供 潜在危险信息 与美国领先车型实施的安全措施形成鲜明对比。
Anthropic 在其提交的文件中也表达了类似的看法:“尽管美国目前在人工智能领域保持领先,但 DeepSeek 显示我们的领先优势并不大,而且正在缩小”,进一步强调了警告的紧迫性。
两家公司都从意识形态的角度来描述这场竞争,OpenAI 将其描述为美国主导的“民主人工智能”与中国“专制、威权人工智能”之间的较量。他们认为,据报道 Deepseek 愿意为“身份欺诈和知识产权盗窃等非法和有害活动”生成指令,这反映了两国在人工智能发展方面根本不同的道德方法。
Deepseek R1的出现无疑是全球人工智能竞赛中的一个重要里程碑,展示了尽管美国对先进半导体实施出口管制,但中国的能力仍在不断增强,也凸显了政府协调行动以保持美国在该领域的领先地位的紧迫性。
对国家安全的影响
这三家公司提交的报告都强调了先进的人工智能模型引发的重大国家安全问题,尽管他们从不同的角度看待这些风险。
OpenAI 的警告主要集中在中国共产党对 Deepseek 等中国人工智能模型的影响潜力上。该公司强调,中国法规可能会迫使 Deepseek “损害关键基础设施和敏感应用程序”,并要求将用户数据与政府共享。这种数据共享可能会使符合中国国家利益的更复杂的人工智能系统得以开发,从而带来直接的隐私问题和长期的安全威胁。
Anthropic 的担忧集中在先进人工智能能力所带来的生物安全风险上,无论其来源国如何。Anthropic 在一份特别令人震惊的披露中透露:“我们最新的系统 Claude 3.7 Sonnet 在支持生物武器开发方面的能力方面表现出了令人担忧的改进。”这一坦率的承认强调了先进人工智能系统的双重用途性质以及对强大保障措施的必要性。
Anthropic 还指出,他们所说的“美国芯片限制的监管漏洞”与以下方面有关: Nvidia 的 H20 芯片。虽然这些芯片满足中国出口的降低性能要求,但它们“擅长文本生成('采样')——这是先进强化学习方法的基本组成部分,对当前前沿模型能力的进步至关重要。” Anthropic 敦促“立即采取监管行动”来解决当前出口管制框架中的这一潜在漏洞。
谷歌虽然承认人工智能存在安全风险,但主张采取更平衡的出口管制方法。该公司警告称,当前的人工智能出口规则“可能会破坏经济竞争力目标……因为它给美国云服务提供商带来了不成比例的负担。”相反,谷歌建议“平衡出口管制,既能保护国家安全,又能促进美国出口和全球业务运营。”
这三家公司都强调需要增强政府评估能力。Anthropic 特别呼吁建立“联邦政府测试和评估强大的人工智能模型的能力,以提高国家安全能力”,以更好地了解对手的潜在滥用行为。这将涉及保留和加强人工智能安全研究所、指导 NIST 制定安全评估以及组建跨学科专家团队。
比较表:OpenAI、Anthropic、Google
重点领域 | OpenAI | 人类的 | |
当务之急 | 来自国家控制的人工智能的政治和经济威胁 | 先进模型带来的生物安全风险 | 保持创新,同时平衡安全 |
在 Deepseek R1 上查看 | “国家补贴、国家控制、免费提供”,具有类似华为的风险 | 愿意恶意回答“生物武器问题” | 不再专注于 Deepseek,而是更多地关注更广泛的竞争 |
国家安全优先 | 中共影响与数据安全风险 | 生物安全威胁和芯片出口漏洞 | 平衡的出口管制不会给美国供应商带来负担 |
监管方法 | 与联邦政府自愿合作;单一联络点 | 增强政府检测能力;加强出口管制 | “支持创新的联邦框架”;特定行业的治理 |
基础设施焦点 | 政府采用前沿人工智能工具 | 能源扩张(到50年达到2027GW)以促进人工智能发展 | 协调能源行动,允许改革 |
特色推荐 | 分级出口管制框架促进“民主人工智能” | 立即对出口到中国的 Nvidia H20 芯片采取监管行动 | 行业可访问公开数据以进行公平学习 |
经济竞争力战略
基础设施需求,尤其是能源需求,成为维持美国人工智能领导地位的关键因素。Anthropic 警告称,“到 2027 年,训练一个前沿人工智能模型将需要消耗大约 50 千兆瓦电力的网络计算集群。”他们提出了一个雄心勃勃的国家目标,即到 2027 年为人工智能行业再建设 XNUMX 千兆瓦电力,同时采取措施简化许可程序并加快输电线路审批。
OpenAI 再次将这场竞争定性为“民主人工智能”与中共建立的“专制、威权人工智能”之间的意识形态较量。他们对“民主人工智能”的愿景强调“促进自由和公平竞争的自由市场”和“开发者和用户可以自由地使用和指导我们的工具”,并在适当的安全护栏内进行。
这三家公司都提出了保持美国领导地位的详细建议。Anthropic 强调“加强美国经济竞争力”和确保“人工智能驱动的经济利益在全社会广泛共享”的重要性。他们主张“确保和扩大美国能源供应”是将人工智能发展留在美国境内的关键先决条件,并警告称,能源限制可能会迫使开发商转向海外。
谷歌呼吁采取果断行动“推动美国人工智能发展”,重点关注三个关键领域:投资人工智能、加速政府采用人工智能以及在国际上推广有利于创新的方法。该公司强调,需要“协调联邦、州、地方和行业行动,制定输电和许可改革等政策,以应对不断增长的能源需求”,同时还要“平衡出口管制”和“继续为基础人工智能研究和开发提供资金”。
谷歌的提案特别强调了“支持人工智能创新的联邦框架”的必要性,该框架将防止各州法规的拼凑,同时确保行业能够获得用于训练模型的公开数据。他们的方法强调“有针对性的、针对特定行业和基于风险的人工智能治理和标准”,而不是广泛的监管。
监管建议
统一的联邦 AI 监管方法成为所有提案的一致主题。OpenAI 警告不要“美国各州制造监管套利”,并提出了“一种让联邦政府和私营部门之间自愿合作的整体方法”。他们的框架设想由商务部进行监督,可能通过重新构想的 美国人工智能安全研究所为人工智能公司与政府就安全风险进行交流提供单一联络点。
在出口管制方面,OpenAI 主张建立分层框架,旨在促进符合民主价值观的国家采用美国人工智能,同时限制中国及其盟友的使用。Anthropic 同样呼吁“加强出口管制以扩大美国人工智能的领先地位”并通过加强与情报机构的合作“大幅提高美国前沿实验室的安全性”。
版权和知识产权考量在 OpenAI 和谷歌的建议中都占有重要地位。OpenAI 强调维护合理使用原则的重要性,以使人工智能模型能够从受版权保护的材料中学习,而不会损害现有作品的商业价值。他们警告说,过于严格的版权规则可能会使美国人工智能公司与中国竞争对手相比处于不利地位。谷歌也赞同这一观点,主张“平衡的版权规则,例如合理使用和文本和数据挖掘例外”,他们将其描述为“使人工智能系统能够从先前知识和公开数据中学习的关键”。
这三家公司都强调政府需要加速采用人工智能技术。OpenAI 呼吁制定“雄心勃勃的政府采用战略”,以实现联邦流程的现代化,并安全部署前沿人工智能工具。他们特别建议消除人工智能采用的障碍,包括过时的认证流程(如 FedRAMP)、限制性测试机构和不灵活的采购途径。Anthropic 同样主张“促进联邦政府快速采用人工智能”,以彻底改变运营方式并加强国家安全。
谷歌建议政府“精简过时的认证、授权和采购做法”,以加速人工智能的采用。他们强调有效的公共采购规则和提高政府云解决方案的互操作性以促进创新的重要性。
这些领先人工智能公司的全面意见传达了一个明确的信息:保持美国在人工智能领域的领导地位需要联邦政府在多个方面采取协调行动——从基础设施建设和监管框架到国家安全保护和政府现代化——特别是在来自中国的竞争加剧的情况下。