关注我们.

思想领袖

人工智能对电力的需求日益增长:数据中心准备好跟上了吗?

mm

随着人工智能 (AI) 的飞速发展,其能源需求正使数据中心不堪重负。下一代人工智能技术包括 生成式人工智能 (genAI) 不仅仅正在改变行业——它们的能源消耗还影响着几乎每个数据服务器组件——从 CPU 和内存到加速器和网络。

GenAI 应用(包括微软的 Copilot 和 OpenAI 的 ChatGPT)的能耗比以往任何时候都要高。到 2027 年,仅训练和维护这些 AI 系统就可能消耗大量能源 为一个小国提供电力 整整一年。而且这一趋势并没有减缓:根据一项研究,在过去十年中,到 160 年,CPU、内存和网络等组件的电力需求预计将增长 2030%。 高盛 报告。

使用大型语言模型也会消耗能源。例如,ChatGPT 查询 消耗约十倍 传统的谷歌搜索。鉴于人工智能的巨大功耗需求,该行业的快速发展能否得到可持续的管理,还是会进一步加剧全球能源消耗?麦肯锡最近 研究 研究表明,数据中心市场中约 70% 的激增需求都与能够处理高级 AI 工作负载的设施有关。这种转变从根本上改变了数据中心的构建和运行方式,因为它们可以适应这些高性能 genAI 任务的独特要求。

“传统数据中心通常采用老化、耗能的设备和固定容量,难以适应波动的工作负载,从而导致严重的能源浪费。” 分布式云计算平台首席战略官兼联合创始人 Mark Rydon 埃瑟尔, 告诉我。 “集中式运营往往会造成资源可用性和消费需求之间的不平衡,导致行业进入一个关键时刻,随着人工智能驱动的需求不断增长,进步可能会破坏环境目标。”

行业领导者现在正直面挑战,投资于更环保的数据中心设计和节能架构。他们的努力范围从采用可再生能源到创建更高效​​的冷却系统,以抵消 genAI 工作负载产生的大量热量。

革新数据中心,打造更加绿色的未来

联想最近推出了 ThinkSystem N1380 海王星这是数据中心液体冷却技术的一次飞跃。该公司声称,这项创新已经使组织能够为 genAI 工作负载部署高性能计算,同时显著降低能源消耗——数据中心的功耗可降低高达 40%。N1380 Neptune 利用 NVIDIA 的最新硬件,包括 Blackwell 和 GB200 GPU,允许在紧凑的设置中处理万亿参数 AI 模型。联想表示,它的目标是为无需专用空调即可运行 100KW 以上服务器机架的数据中心铺平道路。

“我们发现了当前消费者的一个重要需求:由于过时的冷却架构和传统的结构框架,数据中心在处理 AI 工作负载时会消耗更多电力。” 联想全球人工智能总监 Robert Daigle, 告诉我。 “为了更好地理解这一点,我们与高性能计算 (HPC) 客户合作,分析了他们的电力消耗,并得出结论,我们可以将能源使用量减少 40%。” 他补充说,公司考虑了风扇功率和冷却​​装置的功耗等因素,并将它们与联想数据中心评估服务提供的标准系统进行比较,与 Nvidia 合作开发新的数据中心架构。

英国信息技术咨询公司 艾维华表示正在利用预测分析来识别数据中心压缩机、电机、暖通空调设备、空气处理器等设备的问题。

“我们发现,生成式人工智能的预训练会消耗大量电力。” AVEVA 人工智能与高级分析主管 Jim Chappell, 告诉我。 “通过我们的预测性 AI 驱动系统,我们的目标是在任何 SCADA 或控制系统之前发现问题,让数据中心操作员能够在设备问题成为重大问题之前修复它们。此外,我们还有一个 Vision AI 助手,它与我们的控制系统本地集成,以帮助发现其他类型的异常,包括与热成像摄像机一起使用时的温度热点。”

与此同时,通过云端 GPU 进行 AI 训练和开发的去中心化计算正在成为一种替代方案。Aethir 的 雷登 解释说,通过在更广泛、更具适应性的网络上分配计算任务,可以优化能源使用,使资源需求与可用性保持一致,从而从一开始就大幅减少浪费。

“我们的‘边缘’基础设施不依赖大型集中式数据中心,而是将计算任务分散到更靠近数据源的节点,从而大大减少了数据传输的能量负荷并降低了延迟。” 赖登说道。 “Aethir Edge 网络最大限度地减少了对持续高功率冷却的需求,因为工作负载分布在各个环境中,而不是集中在一个位置,有助于避免中央数据中心典型的能源密集型冷却系统。”

同样,包括以下公司 亚马逊和谷歌 正在试验可再生能源,以应对数据中心不断增长的电力需求。例如,微软正在大力投资可再生能源和提高效率的技术,以减少其数据中心的能源消耗。谷歌也已采取措施转向无碳能源,并探索可最大限度减少数据中心用电量的冷却系统。 “核电可能是实现无碳数据中心的最快途径。微软、亚马逊和谷歌等主要数据中心提供商现在 大量投资 未来这种类型的发电方式将更加适合。小型模块化反应堆 (SMR) 的灵活性和生产速度使其成为实现净零排放的更可行的选择,” 添加 AVEVA 的 Chappell。

人工智能和数据中心可持续性可以共存吗?

AI基础设施平台首席技术官Ugur Tigli 迷你IO表示,虽然我们希望未来人工智能能够在不大幅增加能源消耗的情况下取得进步,但这在短期内是不现实的。 “长期影响更难预测。” 他告诉我, “但我们将看到劳动力的转变,人工智能将有助于全面改善能源消耗。” 蒂格利相信,随着能源效率成为市场优先考虑的问题,我们将看到计算业务的增长以及其他行业的能源使用量的下降,特别是当这些行业的效率提高时。

他还指出,消费者对更环保的人工智能解决方案的兴趣日益浓厚。 “想象一下,一个人工智能应用程序的运行效率达到 90%,但只消耗一半的电量——这就是真正能够起飞的创新。” 他补充道。显然,人工智能的未来不仅仅关乎创新,也关乎数据中心的可持续性。无论是通过开发更高效的硬件,还是更智能地利用资源,我们如何管理人工智能的能源消耗都将极大地影响数据中心的设计和运营。

雷登 强调了全行业举措的重要性,这些举措重点关注可持续数据中心设计、节能的人工智能工作负载和开放资源共享。 “这是迈向绿色运营的关键一步。” 他说。 “使用人工智能的企业应该与科技公司合作,创造减少环境影响的解决方案。通过合作,我们可以引导人工智能走向更可持续的未来。”

Victor Dey 是一名科技编辑兼作家,负责报道企业领域的人工智能、加密、数据科学、元宇宙和网络安全。他在媒体和人工智能领域拥有五年的工作经验,曾在 VentureBeat、Metaverse Post、Observer 等知名媒体工作。Victor 曾在牛津大学和南加州大学等一流大学的加速器项目中指导学生创始人,并拥有数据科学和分析硕士学位。