思想领袖
巨型模型并不是计算危机的关键

每当一个新的AI模型发布——GPT更新,DeepSeek,Gemini——人们都会对这些巨型模型的庞大规模、复杂性以及日益增长的计算需求感到惊讶。人们认为这些模型定义了AI革命的资源需求。
这种假设是错误的。
是的,大的模型确实需要大量的计算资源。但是,对AI基础设施造成最大压力的不是少数几个巨型模型,而是AI模型在各个行业的默默普及,每个模型都针对特定的应用程序进行了细化,并以前所未有的规模消耗计算资源。
尽管LLMs之间可能会出现赢家通吃的竞争,但AI领域整体上并没有集中化——它正在变得更加分散。每个企业不仅仅是在使用AI——他们正在训练、定制和部署私有的模型,以满足自己的需求。这将会产生一个基础设施需求曲线,云服务提供商、企业和政府都没有准备好应对。
我们之前已经见过这种模式。云计算并没有整合IT工作负载;它创造了一个杂乱的混合生态系统。首先是服务器扩散,然后是虚拟机扩散。现在?AI扩散。每一波计算都导致了扩散,而不是简化。AI也不例外。
AI 扩散:为什么AI的未来是百万个模型,而不是一个
金融、物流、网络安全、客户服务、研发——每个领域都有自己的AI模型,针对自己的功能进行了优化。组织并不训练一个AI模型来统治整个运营。他们训练成千上万个模型。这意味着更多的训练周期、更多的计算需求、更多的存储需求和更多的基础设施扩散。
这不是理论。即使在传统上对技术采用比较谨慎的行业,AI投资也正在加速。2024年麦肯锡的一份报告发现,组织现在在平均三个业务功能中使用AI,制造、供应链和产品开发领先(麦肯锡)。
医疗保健是一个典型的例子。Navina,一家将AI集成到电子健康记录中以提供临床见解的初创公司,刚刚从高盛(Business Insider)获得了5500万美元的C轮融资。能源领域也不例外——行业领袖已经推出了开放电力AI联盟,以将AI优化带到电网和工厂运营(Axios)。
无人谈论的计算压力
AI已经打破了传统的基础设施模型。认为云可以无限扩展以支持AI增长的假设是完全错误的。AI不像传统工作负载那样扩展。需求曲线不是渐进的——它是指数级的,超大规模云服务提供商也跟不上。
- 电力限制: AI专用数据中心现在正在根据电力可用性而不是仅仅网络骨干进行建设。
- 网络瓶颈: 混合IT环境正在变得难以管理,而没有自动化,AI工作负载只会加剧这种情况。
- 经济压力: AI工作负载可以在一个月内消耗数百万美元,造成财务不可预测性。
数据中心已经占据了全球1%的电力消耗。在爱尔兰,数据中心现在占据了国家电网的20%,预计到2030年这一比例将大幅增加(IEA)。
另外,GPU的压力也在增加。贝恩公司最近警告说,AI增长正在为数据中心级芯片创造一个半导体短缺的舞台(贝恩)。
同时,AI的可持续性问题也在增长。2024年在《可持续城市和社会》杂志上发表的一项分析警告说,广泛采用AI在医疗保健领域可能会大幅增加该行业的能源消耗和碳排放,除非通过有针对性的效率措施进行抵消(ScienceDirect)。
AI 扩散不仅仅是市场问题——它是国家力量的问题
如果你认为AI扩散只是一个企业问题,那你就错了。AI碎片化最重要的驱动力不是私营部门——而是政府和军事国防机构,它们正在以超出任何超大规模云服务提供商或企业的规模部署AI。
美国政府单独就在27个机构的700多个应用中部署了AI,涵盖情报分析、后勤等(FedTech Magazine)。
加拿大正在投资最高7亿美元来扩大国内AI计算能力,并推出了一项国家挑战,以加强主权数据中心基础设施(创新、科学和经济发展加拿大)。
人们正在呼吁启动一个“阿波罗计划”来解决AI基础设施问题——这凸显了AI从商业优势升级为国家迫切需求的过程(MIT Technology Review)。
军事AI不会高效、协调或针对成本进行优化——它将由国家安全命令、地缘政治紧迫性以及对封闭、主权AI系统的需求驱动。即使企业控制了AI扩散,谁会告诉政府放慢脚步呢?
当国家安全受到威胁时,没人会停下来问电网是否能承受得住。












