Connect with us

思想领袖

人工智能所有权之争 – 为什么数据中心比以往任何时候都更重要

mm

几年前,数据中心似乎只是一种纯粹的技术和不可见的东西 – 基础设施深藏在后端,很少在专业圈子以外被讨论。但人工智能的爆炸式增长完全改变了这种情况。今天,数据中心已经成为数字经济的新“油井”:一个战略资产,数十亿美元的投资、政府政策和企业战略都围绕着它建立。

最近的新闻证实了这一点。Anthropic 宣布在美国建设自己的数据中心,成本为500亿美元,这个数字与主要能源巨型项目的预算相似。几乎同时,X.AI和Nvidia在沙特阿拉伯揭露了一个联合项目,这是该地区最大的数据中心之一。

为什么数据中心的话题变得如此全球化?为什么主要玩家正在远离纯云模型,并将数十亿美元投资于自己的容量?以及这种转变如何影响人工智能架构、能源系统、地缘政治和替代模型的崛起,从北极到太空中的数据中心?

这是下面栏目所探讨的内容。

拥有数据中心的全球兴趣激增

当计算资源消耗以每年数百万美元来衡量时,租用云服务器确实更具成本效益:企业不需要建造和维护建筑物,支付电费和冷却费,购买设备或定期升级它。但是,当支出达到数十亿美元时,逻辑就发生了变化。

到那时,建造自己的数据中心变得更具成本效益,雇用工程师,购买设备,并优化基础设施以满足特定的需求。公司不再为云提供商的利润过度付费,并获得了对计算成本和效率的更大控制权。

这就是为什么建造私人数据中心的趋势对于像OpenAI或Anthropic这样的巨头来说最为相关,因为这些公司的需求如此庞大,以至于云计算不再在经济上得到证明。

同时,了解“数据中心”的概念是多层面的至关重要。对于一些公司来说,它主要是一个数据存储设施,包括磁盘、数据库和用户信息。对于其他公司来说,它也是一个计算中心:运行模型的服务器,如GPT、Claude或LLaMA,同时存储数据并执行复杂的操作。从本质上讲,今天,数据中心是一个巨大的技术“仓库”,里面有成千上万台专用计算机。

而且,人工智能容量的需求越高,这个“仓库”就变得越战略和有争议,这就是为什么数据中心现在不仅仅是由工程师讨论的,也由投资者、政策制定者和高级主管讨论。

在构建人工智能数据中心中,速度与质量哪个更重要?

实际上,建设速度或数据中心的正式“质量”并不是主要驱动因素。大公司投资自己的基础设施是为了降低成本并获得对计算的最大控制权。

模型本身的质量对顶级玩家来说关注得远不如人们想象的那么多。原因很简单:市场领导者之间的质量差距是最小的。这就像汽车行业:大众、丰田、本田 – 所有这些都是不同的,但没有一个能够远远领先于其他人。每个公司都保持着自己的稳定份额。

人工智能市场遵循着类似的逻辑。高级用户已经同时使用多个模型:一个用于编程,另一个用于文本生成,第三个用于分析或搜索。企业客户也是如此。例如,Grammarly没有自己的模型。他们从多个提供商那里购买令牌,包括Anthropic、OpenAI和Meta。当请求到来时,系统会自动选择提供商:当前最便宜、最快或最准确的提供商。如果文本是英文,则发送到GPT;如果是印地语,则发送到Claude;如果LLaMA当前具有最低的费率,则发送到那里。这基本上是一个类似于股票交易所的负载分配模型。

在与Keymakr的企业客户的对话中,我越来越多地看到同样的趋势:大公司早已放弃了“一个模型-一个提供商”的方法。他们建立了多模型管道,根据成本、延迟或语言特异性,将请求路由到不同的人工智能系统。然而,这种架构对数据提出了更高的要求,特别是其清洁度、注释、验证和一致性。在这种意义上,数据基础设施与数据中心本身一样具有战略意义:没有高质量的输入,多模型系统根本无法正常工作。

最终,在这种架构中,模型质量只是众多参数之一。关键是保持速度、可扩展性和处理大量计算负载的能力。这正是私人数据中心具有战略价值的原因:它们允许公司控制成本、吞吐量和稳定性,同时对最终模型质量的影响很小。

换句话说,今天,公司建造数据中心不是为了速度或完美的质量,而是为了经济和控制。

数据的地理

通过“控制”,我指的是数据的地理。如果一家公司与政府机构合作,法律通常禁止数据离开该国。政府和准军事应用积极地使用人工智能在情报、国防信息技术单元和市政服务中。但是,如果数据中心位于一个管辖权不确定或信任度低的地区,则无法将这些系统连接到模型。因此,政府要求计算能力必须在该国境内。

大公司非常清楚这一点。如果他们想参与政府招标、签订合同或处理敏感数据,他们需要在特定地区拥有基础设施,并能够保证遵守安全标准。这种地理限制也对另一个关键因素——能源——产生了重大影响。

人工智能数据中心消耗了大量电力,既用于运行服务器也用于冷却服务器。冷却通常比计算本身更昂贵。这就产生了严格的限制。在某些地区,数据中心的电力消耗受到限制;在其他地区,热量排放到环境中受到严格监管。超过限制会导致罚款和昂贵的工程升级。

此外,电力主要从国有能源公司购买,这些公司有自己的费率结构。您不能简单地“购买您想要的数量”。例如,到一定阈值,价格为一个费率;超过阈值,则为另一个费率。如果数据中心在高峰期消耗的电力超过允许的数量,则会自动产生罚款。因此,大公司通常发现建造自己的数据中心靠近自己的发电厂更具经济效益。

这自然导致了开发私人发电的想法,例如太阳能农场、燃气发电厂或小型水力发电站。但所有这些解决方案都有局限性。天然气和煤炭发电厂会产生排放。水力发电会改变河流生态系统。核能是最干净的发电方式,但只有政府才能建造核电站。

而正是在这一点上,新的概念开始出现…

替代解决方案

最明显的选择是将数据中心迁移到天然气候寒冷的地区,例如加拿大北部、斯堪的纳维亚北部领土或北极地区的偏远地区。在那里,自然环境本身解决了冷却问题,大大降低了运营成本。

下一步是“水下数据中心”。计算发生在水下,寒冷的海洋环境提供自然冷却。但这种方法也有缺点。环境保护主义者已经提出了担忧。例如,在南冰岛附近,墨西哥湾流经过,人们建议在那里大规模部署水下数据中心可能会影响当地的气候过程,甚至可能改变海洋洋流的行为。已经记录了此类偏差的初始观察结果。

还有更为未来主义的选择。最近,我与同事讨论了太空中的数据中心的概念。将计算基础设施发射到轨道的想法已经存在很长时间了;然而,技术已经使其处于可行性的边缘,拥有一个准备好的技术基础。

为什么太空似乎很有吸引力?它立即解决了两个主要的限制:冷却和电力。近地太空的温度极低,使得热量散发几乎免费。电力也不是问题:可以部署大量的太阳能板,就像太空望远镜展开其镜子一样。在太空中,没有灰尘,没有天气,没有遮挡。面板提供稳定的电力,几乎没有维护的需要。

与地球的通信是一个单独的工程挑战,但它是完全可以解决的。一个方法是使用卫星系统,如Starlink,但具有更广泛的信道。无线电链路可以原则上处理这些体积,光链路可以使用基于光的信道,带宽巨大,如果需要,可以使用。工程师们肯定会找到解决方案。

总体而言,太空基础设施更像是未来发展的一个分支,但讨论它不再似乎像科幻小说,尤其是计算需求的增长速度远远超过地球上的新容量。

值得注意的是最新的消息:谷歌宣布了其Suncatcher项目,旨在创建人工智能轨道数据中心。根据计划,配备了TPU芯片的卫星将由太阳能提供动力,并通过光学信道传输数据。谷歌声称,这种解决方案可以提供高达八倍的能量生产效率,超过地面系统。第一批卫星原型计划于2027年发射。

法规的影响

当谈到影响数据中心的法规、其环境影响以及法律框架是否实际上可以“推动”这个市场进入太空或水下时,问题仍然存在。

每个国家都以不同的方式行事,实施法规以符合其长期计划。没有什么秘密,例如,欧洲有更严格的规则,这减缓了人工智能的发展。相比之下,美国采取了更为务实的方法:法律通常是为允许创新和增长而制定的。加利福尼亚州强大的科技游说团体,包括Nvidia、Apple、Microsoft和Meta等公司,使得对人工智能的全面禁令不太可能发生。这意味着技术将继续向前发展。

我们生活在一个“跳出思维定式”的时代,这种思维方式在西方和亚洲都受到推崇,埃隆·马斯克和史蒂夫·乔布斯的例子继续激励着雄心勃勃的项目。所以,也许计算在太空中是下一个逻辑步骤。

Michael Abramov 是 Introspector 的创始人和 CEO,他带来了 15 年以上的软件工程和计算机视觉 AI 系统经验,用于构建企业级标注工具。

Michael 开始他的职业生涯作为软件工程师和研发经理,构建可扩展的数据系统和管理跨功能的工程团队。直到 2025 年,他曾担任 Keymakr 的 CEO,该公司是一家数据标注服务公司,他在那里开创了人机协同工作流、先进的 QA 系统和定制工具,以支持大规模计算机视觉和自主驾驶数据需求。

他拥有计算机科学学士学位,并具有工程和创意艺术背景,这使他能够从多学科的角度解决棘手的问题。Michael 活跃在技术创新、战略产品领导和现实世界影响力的交叉点,推动自主系统和智能自动化的下一个前沿。