人工智能
‘觉醒’ AI 是否真正存在?

特朗普总统最近对白宫运作中“觉醒 AI”的禁令引发了争论,并提出了关于人工智能本质的疑问。本文将探讨“觉醒 AI”所谓的含义,检查主要 AI 模型是否真正表现出这种偏见,并探索这一行政命令对 AI 开发和部署在政府和行业中的深远影响。
白宫行政命令和“觉醒 AI”的概念
2025 年 7 月 23 日,特朗普总统签署了一项名为 在联邦政府中防止觉醒 AI 的行政命令,这是更广泛的 AI 行动计划的一部分。白宫 事实清单 表示,特朗普总统正在“保护”美国人免受“有偏见”的 AI 系统的影响,这些系统为了意识形态目的而牺牲准确性。
该命令禁止联邦机构与经营显示党派偏见的 AI 聊天机器人的科技公司签订合同,该行动将多样性、公平和包容、批判性种族理论和“变性主义”定义为党派偏见,这些力量被命令称为对“可靠 AI”的“生存威胁”。这是美国政府首次尝试通过联邦采购政策直接塑造 AI 系统的意识形态行为。
焦点似乎完全集中在聊天机器人和生成式 AI 上。很难说,一种监控组织云的 AI 或从 PDF 中提取数据的 AI 怎么会被认为是“觉醒”的。
从管理层的角度定义“觉醒 AI”
虽然“觉醒 AI”这个术语本身并没有在行政命令的法律文本中明确定义,但白宫将其等同于支持多样性、公平和包容(DEI)等概念的 AI 输出,而这些输出以牺牲准确性为代价。该命令规定,任何与联邦政府做生意的 AI 公司必须摆脱“意识形态教条,如 DEI”。
新行政命令引用了一起事件,一种主要 AI 模型改变了历史人物的种族或性别,当时 谷歌的 AI 图像生成器 去年生成的图片显示,美国的开国元勋和纳粹士兵都是黑人。特朗普的盟友将这些例子视为故意编程到 AI 系统中的偏见的证据。
管理层的 禁止内容的定义 包括对种族或性别的真实信息的压制或歪曲,操纵模型输出中的种族或性别表示,以及将批判性种族理论、变性主义、无意识偏见、交叉性和系统性种族主义等概念纳入其中。
AI 偏差和“觉醒”
专家普遍认为,AI 模型不具备人类意义上的信仰或偏见,但它们可以表现出由其训练数据、反馈和指令影响的系统性倾向。有些人认为,没有“觉醒 AI”,只有可能歧视或为所有人服务的 AI。AI 模型是在互联网上收集的庞大数据集上进行训练的,这些数据集本身包含人类语言和在线内容中的偏见和矛盾。
“觉醒”的概念是主观和有争议的,它起源于黑人社区,用于表示对种族不公正的认识,但后来被保守派作为对进步理念的贬义词。
在 AI 中实现 绝对客观性 可能被认为是一种“幻想”,因为语言本身从来不是中立的。挑战在于区分合理的偏差缓解努力和管理层所说的意识形态操纵。
科技公司、政治立场和环境问题
大型科技公司的立场转变
曾经被视为拥抱多样性、公平和包容(DEI)以及“觉醒资本主义”的许多美国科技巨头现在正在放弃这种语言,尤其是在特朗普重返白宫之后。Meta 和亚马逊 正在重新评估多样性计划,以应对美国不断变化的政治和法律格局。
主要科技公司已向特朗普管理层做出了重大财务承诺。谷歌和微软 各自向特朗普的就职典礼基金捐赠了 100 万美元,加入了其他著名科技公司的行列。世界上一些最大的科技公司的首席执行官 出席了特朗普的就职典礼,包括亚马逊、谷歌、Meta、特斯拉、TikTok 和 OpenAI 的领导人。
公司政策的转变是显而易见的。谷歌宣布将 取消其招聘目标,此前特朗普发布了行政命令。然而,一些公司正在保持承诺,而苹果和微软则 重申了他们对 DEI 的承诺。
AI 的环境成本和“绿色洗脑”
对 AI 的需求正在为科技公司带来重大的环境挑战。训练具有数十亿参数的生成式 AI 模型所需的计算能力可能需要 大量电力,从而导致二氧化碳排放量增加和对电网的压力。数据中心和数据传输网络已经 占据了 1% 的能源相关温室气体排放,预计到 2026 年,数据中心的电力使用量将增加一倍,AI 将使数据中心的电力需求增加 160%。
也许最有害的是,对于任何“觉醒”或环保意识的说法来说,大型 AI 公司从事系统性的“绿色洗脑”,这损害了他们的社会责任声誉。包括 Meta、谷歌、微软和苹果在内的公司可能 排放的温室气体是他们承认的 7.623 倍。亚马逊、微软和 Meta 隐瞒了他们的实际碳足迹,购买与电力使用相关的信用,这些信用不准确地从他们的碳账户中抹去了数百万吨的全球变暖排放。
这种环境欺骗直接违背了“觉醒”意识形态所代表的社会意识和责任原则。微软最近 获得了 350 万个碳信用,这是与 Re.green 的一项交易,旨在抵消其日益增长的 AI 驱动的碳排放,而不是减少实际排放。这种做法表明,AI 公司将利润和增长置于真正的环境管理之上,使进步价值观的主张显得空洞。
AI 开发和部署的未来影响
联邦采购和供应商关系的转变
行政命令要求联邦机构采购的语言模型(LLM)必须遵循“寻求真理”和“意识形态中立”原则。供应商将被要求披露其 LLM 的系统提示、规格和评估,以证明其符合要求,尽管不一定需要披露敏感的技术数据。
不遵守规定可能会导致合同终止,解约费用将由供应商承担。这为寻求政府合同的科技公司引入了一个重大的新监管障碍。正如布鲁金斯研究人员所指出的,这一指令对公司施加了强大的压力,要求它们自我审查,以保持政府的好感并保持资金的流动,从而实际上迫使行业参与意识形态之争。
经济利益很大。预计到 2030 年,AI 行业的价值将达到 2 万亿美元,联邦 AI 合同代表着科技公司数十亿美元的潜在收入。这为遵守规定创造了强大的激励,尽管公司内部可能对多样性和包容性原则有不同的看法。
对 AI 创新和偏差缓解的影响
民权倡导者对这一命令可能会迫使科技行业放弃多年来致力于消除 AI 系统中嵌入的种族和性别偏见的努力表示担忧。
专家警告称,开发人员可能会感到压力,需要使模型输出和数据集与白宫的言论保持一致,以确保获得联邦资金,这可能会减缓创新。挑战超出了技术实施,涉及到对 AI 开发优先级的基本问题。
实现 AI 中的完全“意识形态中立”的概念被一些专家认为不可行,因为政治和事实的客观性可能是高度主观的。更广泛的担忧是,政府干预 AI 开发可能会扼杀推动技术创新所需的多样化观点和方法。
为算法意识形态监管设立先例
这一行政命令为美国政府直接干预 AI 的意识形态输出设立了先例,引发了人们对中国努力确保 AI 工具反映中国共产党价值观的比较。批评者认为,通过将自由派政治信仰和某些群体定义为“固有偏见”,这一命令威胁了言论自由,可能违反了第一修正案。
人们担心,AI 公司可能会主动改造其训练数据,以符合这一指令。
特朗普管理层更广泛的“AI 行动计划”表明,国家优先事项转向建设 AI 基础设施,减少“繁琐”,并加强国家安全,可能会以牺牲解决社会风险为代价。该命令在实现其既定目标方面的长期有效性,以及未来管理层试图控制 AI“意识形态”的影响,是一个关键的观察领域。
结论
“觉醒 AI”的概念,如白宫所定义的,凸显了技术进步、政治意识形态和社会价值观之间的深刻紧张。虽然 AI 模型反映了其人类创造者和训练数据的偏见,但通过行政行动推动“意识形态中立”却引发了关于言论自由、创新和政府影响的复杂问题。AI 的未来发展将无疑受到行业和政策如何应对这些有争议和不断演变的定义的影响。
