人工智能
“觉醒”人工智能真的存在吗?

唐纳德·特朗普总统最近禁止白宫使用“觉醒人工智能”,引发了争议,并引发了人们对人工智能本质的质疑。本文将深入探讨“觉醒人工智能”的含义,检验主流人工智能模型是否真的存在此类偏见,并探讨这项行政命令对政府和行业内人工智能开发和部署的深远影响。
白宫行政命令与“觉醒人工智能”概念
23 年 2025 月 XNUMX 日,特朗普总统签署了一项行政命令,题为“防止联邦政府出现“觉醒人工智能”作为更广泛的人工智能行动计划的一部分。 白宫情况说明书 称特朗普总统正在“保护”美国人免受出于意识形态目的而牺牲准确性的“有偏见的”人工智能系统的侵害。
该命令禁止联邦机构与以下科技公司签订合同: 操作表现出党派偏见的人工智能聊天机器人该行动将其定义为多样性、公平性和包容性、批判性种族理论以及“跨性别主义”,这些力量构成了“对可靠人工智能的生存威胁”。这标志着美国政府首次明确尝试通过联邦采购政策来塑造人工智能系统的意识形态行为。
焦点似乎完全集中在聊天机器人和生成式人工智能上。很难说一个 监控组织的云 or 从 PDF 中提取数据 可以被认为是‘觉醒’。
从政府角度定义“觉醒人工智能”
虽然“觉醒人工智能”一词本身并未在行政命令的法律文本中明确定义,但白宫将其等同于以牺牲准确性为代价,支持多样性、公平性和包容性(DEI)等概念的人工智能输出。该命令规定,任何与联邦政府开展业务的人工智能公司都必须避免受到“意识形态教条,例如 DEI“。
新的行政命令引用了一起“一个主要的人工智能模型改变了历史人物的种族或性别”的事件,当时 谷歌的人工智能图像生成器 去年,人工智能系统生成的图片显示,美国开国元勋和纳粹士兵都是黑人。特朗普的盟友们曾引用此类例子,作为人工智能系统存在故意偏见的证据。
政府的 禁止内容的定义 包括压制或歪曲有关种族或性别的事实信息、操纵模型输出中的种族或性别代表,以及纳入批判种族理论、跨性别主义、无意识偏见、交叉性和系统性种族主义等概念。
人工智能偏见与“觉醒”
专家们普遍认为,人工智能模型并不具备人类意义上的信念或偏见,但它们能够表现出受训练数据、反馈和指令影响的系统性倾向。一些人认为,存在“不存在所谓的“觉醒的人工智能”',只有人工智能才能区分所有人或适用于所有人。人工智能模型是在从互联网上抓取的海量数据集上进行训练的,这些数据集本身就包含了人类语言和在线内容中存在的偏见和矛盾。
“觉醒”这个概念本身就具有主观性和争议性,它起源于黑人社区,表示对种族不公正的认识,但后来被保守派用作对进步理想的贬义词。
实现 人工智能的绝对客观性 可以被视为一种“幻想”,因为语言本身从来都不是中性的。挑战在于区分合法的偏见缓解措施与政府所称的意识形态操纵。
科技公司、政治联盟和环境问题
大型科技公司的立场转变
美国科技行业的许多巨头企业曾被视为多元化、公平和包容性(DEI)以及“觉醒资本主义”的拥护者,但现在却开始摒弃这种说法,尤其是在特朗普重返白宫之后。Meta 和亚马逊 正在重新评估多元化举措 应对美国不断变化的政治和法律格局
大型科技公司已向特朗普政府做出了重大财务承诺。谷歌和微软 每人捐款1万美元 为唐纳德·特朗普的就职典礼基金捐款,加入其他知名科技公司的行列。 全球几家最大的科技公司 出席特朗普总统就职典礼的包括亚马逊、谷歌、Meta、特斯拉、TikTok、OpenAI 的领导人。
企业定位的转变在政策变化中显而易见。与联邦机构签订了云计算合同的谷歌于 2 月宣布,将 取消其理想的招聘目标 特朗普的行政命令之后。然而,一些公司仍在履行承诺,而苹果和微软 重申对 DEI 的承诺.
人工智能和“漂绿”行为的环境成本
对人工智能的需求正在给科技公司带来巨大的环境挑战。训练通常包含数十亿个参数的生成式人工智能模型所需的计算能力,可能会 需要大量的电力这会导致二氧化碳排放量增加,并给电网带来压力。数据中心和数据传输网络 已经占能源相关温室气体排放量的 1%预计到 2026 年,数据中心的电力使用量将翻一番,而人工智能将使数据中心电力需求增加 160%。
或许,对任何声称“觉醒”或环保的言论来说,最有害的是大型人工智能公司系统性地进行“漂绿”活动,损害了其社会责任信誉。包括 Meta、谷歌、微软和苹果在内的公司可能会 温室气体排放量增加7.623倍 比他们承认的要多。亚马逊、微软和 Meta 隐瞒实际碳足迹购买与电力使用挂钩的信用额度,错误地从其碳账户中消除了数百万吨导致全球变暖的排放。
这种环境欺骗直接违背了“觉醒”意识形态所代表的社会意识和责任原则。微软最近 获得3.5万碳信用额 与Re.green达成协议,旨在抵消其因人工智能驱动而不断上升的碳排放,而非减少实际排放。这种做法暴露了人工智能公司如何将利润和增长置于真正的环境管理之上,使其所谓的进步价值观显得空洞无物。
对人工智能开发和部署的未来影响
联邦采购和供应商关系的转变
该行政命令规定,联邦机构采购的大型语言模型(LLM)必须遵守“寻求真相”和“意识形态中立”原则。供应商必须披露其 LLM 的系统提示、规范和评估 以证明合规性,尽管不一定是敏感的技术数据。
不遵守规定可能导致合同终止,并由供应商承担退役费用。这给寻求政府合同的科技公司带来了新的重大监管障碍。布鲁金斯学会的研究人员指出,这项指令给公司施加了强大的压力,迫使它们进行自我审查,以保持政府的良好形象并保证资金的流动,实际上迫使该行业陷入一场文化战争。
金融风险巨大。人工智能行业预计将 到 2 年价值将达到 2030 万亿美元联邦人工智能合同为科技公司带来了数十亿美元的潜在收入。无论公司内部对多元化和包容性原则的看法如何,这都为合规提供了强大的激励。
对人工智能创新和偏见缓解的影响
民权倡导者表示担心,这项命令将迫使科技行业放弃多年来致力于打击人工智能系统中的种族和性别偏见的努力。
专家警告称, 对开发商的“寒蝉效应”他们可能会感到压力,需要将模型输出和数据集与白宫的言论保持一致,以获得联邦资金,这可能会减缓创新。挑战不仅在于技术实施,还在于人工智能发展优先事项的基本问题。
一些专家认为,在人工智能领域实现完全的“意识形态中立”是行不通的,因为政治和事实的客观性可能高度主观。更广泛的担忧是,政府对人工智能发展的干预可能会扼杀历史上推动技术创新的多元化视角和方法。
开创算法意识形态警务的先例
这项行政命令开创了美国政府直接干预塑造人工智能意识形态输出的先例,这与中国为确保人工智能工具反映执政党共产党价值观所做的努力形成了鲜明对比。批评人士认为,该命令将自由主义政治信仰甚至某些群体定义为“固有偏见”,威胁言论自由,并可能违反《第一修正案》。
人们担心人工智能公司可能会主动修改其训练数据以符合该指令。
特朗普政府更广泛的“人工智能行动计划这表明国家重点将转向建设人工智能基础设施、减少“繁文缛节”和加强国家安全,这可能会以牺牲社会风险为代价。该行政令在实现其既定目标方面的长期有效性,以及对未来试图控制人工智能“意识形态”的政府的影响,仍是一个值得关注的重点。
结语
白宫定义的“觉醒人工智能”概念凸显了技术进步、政治意识形态和社会价值观之间根深蒂固的矛盾。虽然人工智能模型反映了其人类创造者和训练数据的偏见,但通过行政行动来推动“意识形态中立”的做法,却引发了关于言论自由、创新和政府影响力的复杂问题。毫无疑问,人工智能发展的未来将取决于行业和政策如何应对这些充满争议且不断发展的定义。