思想领袖
人工智能的真正力量在于能量
标题讲述了一个故事:OpenAI、Meta、Google 和 Anthropic 正在进行一场人工智能模型建设的军备竞赛。每一次新的发布——从 DeepSeek 的开源模型到最新的 GPT 更新——都被视为人工智能迈向其命运的下一个伟大飞跃。其含义很明确:人工智能的未来属于谁谁就能建立最好的模型。
这是一个错误的观点。
开发人工智能模型的公司并不是唯一定义其影响力的实体。支持大规模采用的人工智能的真正参与者不是 OpenAI 或 Meta,而是使人工智能为日益增长的消费者群体所用的人工智能基础设施提供商、数据中心运营商和能源提供商。没有他们,人工智能就不是一个万亿美元的产业。它只是代码坐在服务器上,等待着不存在的能量、计算和冷却。基础设施,而不是算法,将决定人工智能如何发挥其潜能。
人工智能的增长和基础设施跟不上的困境
人工智能将无限扩张的假设与现实脱节。人工智能的采用正在加速,但它面临着一个简单的限制:我们没有足够的能量、数据中心或冷却能力来支持人工智能按照行业预期的规模发展。
这不是猜测,这已经正在发生。人工智能工作负载与传统的 云计算 基本上是不同的。计算强度高出几个数量级,需要专用硬件、高密度数据中心和冷却系统,这些系统的效率极限正在被推动。
公司和政府不仅仅运行一个人工智能模型,他们运行着成千上万个模型。军事防御、金融服务、物流、制造业——每个行业都在训练和部署为其特定需求量身定制的人工智能模型。这造成了人工智能的扩散,模型不再集中,而是分散在各个行业,每个行业都需要大量的计算和基础设施投资。
与传统的企业软件不同,人工智能不仅开发成本高,而且运行成本也很高。保持人工智能模型在大规模上运行的基础设施需求正在呈指数级增长。每个新的部署都给已经紧张的系统带来了压力。
人工智能中最被低估的技术
数据中心是人工智能产业的真正骨干。每个查询、每个训练周期、每个推理都依赖于数据中心是否具有处理它所需的能量、冷却和计算能力。
数据中心一直是现代技术的关键,但人工智能将其放大了。一个大规模的人工智能部署可以消耗与中等城市一样多的电力。人工智能特定数据中心的能量消耗和冷却要求远远超过传统云基础设施的设计能力。
公司已经遇到了限制:
- 数据中心的位置现在由电力供应决定。
- 超大规模公司不再仅仅在互联网骨干网附近建造数据中心——他们正在寻找稳定的能源供应。
- 冷却创新变得至关重要。液体冷却、
- 浸没式冷却和人工智能驱动的能效系统不再是可有可无的——它们是数据中心跟上需求的唯一途径。
- 人工智能基础设施的成本正在成为一个区别。
- 能够以无需超出能量预算的方式大规模扩展人工智能的公司将主导人工智能采用的下一个阶段。
超大规模公司如 AWS、Microsoft 和 Google 投资数十亿美元用于人工智能就绪基础设施的原因是——没有它,人工智能就无法扩展。
未来的人工智能超级大国
人工智能已经成为一个国家安全问题,政府并没有坐视不管。今天最大的人工智能投资不仅来自消费者人工智能产品——它们还来自国防预算、情报机构和国家规模的基础设施项目。
军事应用 单独就需要成千上万个私人、封闭的人工智能模型,每个模型都需要安全、隔离的计算环境。人工智能正在被用于从导弹防御到供应链物流再到威胁检测的所有事情。这些模型不会是开源、免费可用的系统——它们将被锁定、高度专业化,并且依赖于大量的计算能力。
政府正在以与他们历史上确保石油和稀土矿物质相同的方式来确保人工智能的长期能源来源。原因很简单:大规模的人工智能需要大规模的能源和基础设施。
与此同时,超大规模公司正在将自己定位为人工智能的房东。像 AWS、Google Cloud 和 Microsoft Azure 这样的公司不再仅仅是云提供商——它们是决定谁可以扩展人工智能、谁不能扩展人工智能的基础设施的守门人。
这就是为什么训练人工智能模型的公司也在投资自己的基础设施和电力生成。OpenAI、Anthropic 和 Meta 今天依赖于云超大规模公司——但它们也正在转向建设自给自足的人工智能集群,以确保它们不会被第三方基础设施瓶颈。人工智能的长期赢家不仅将是最好的模型开发者——他们将是能够负担得起建设、运营和维护人工智能所需的大规模基础设施的人。












