人工智能
谷歌刚刚公布了人工智能能源使用量的实际数字——与你想象的不同

每个人都在谈论人工智能巨大的能源足迹。你肯定见过这样的标题:“ChatGPT 消耗的电量相当于一个小国家的电量”或“每次 AI 查询都要喝掉一瓶水”。
Google 刚刚公布实际数据 从他们的生产系统中,数字讲述了一个完全不同的故事。
人工智能查询的实际能源成本
以下是谷歌的发现:中位数 双子座 文字提示耗电0.24瓦时。这比看九秒钟电视还省电。用水量?五滴。不是五杯。五滴。
公众认知与现实之间存在巨大差距。此前的估计显示,AI 每次查询会消耗 10 到 50 毫升水。一些研究表明,实际能耗是谷歌实际测量值的 30 倍。
为什么会有如此大的差异?因为到目前为止,还没有人大规模地测量过真实的系统。学术研究在未充分利用的硬件上进行孤立的测试。他们基本上是在测量汽车在车道上空转时的燃油效率。
44倍的改进
谷歌一年内将其人工智能碳排放量减少了44倍。不是44%,而是44倍。
这并非实验室中的理论改进。它正在服务于数十亿次查询的系统上发生。他们通过软件优化(33 倍的提升)和更清洁的能源(1.4 倍的提升)实现了这一目标。
大多数研究只关注执行计算的AI芯片。这就像测量餐厅的能源消耗时只计算烤箱的数量,而忽略了冰箱、灯光和暖通空调系统。
谷歌的数据展现了完整的图景:没错,AI加速器消耗了58%的能源。但你还需要常规处理器和内存(24%)、可靠性备用容量(10%)以及冷却系统(8%)。在测量中忽略其中任何一个因素,你的数据基本上就毫无意义。
当谷歌采用其他人使用的狭义方法——仅测量满负荷运转的机器上的 AI 芯片时,其能耗数据下降至 0.10 瓦时。实际生产系统的能耗是后者的 2.4 倍,因为实际系统需要冗余、冷却和支持基础设施。
这对人工智能的未来意味着什么
关于人工智能能耗的叙述需要现实检验。没错,人工智能确实需要能源。但经过适当优化的系统远比那些末日场景所暗示的要高效得多。
这里的背景很重要。每个查询耗电 0.24 瓦时?美国人平均每天用电约 30 千瓦时。你需要运行 125,000 万次 AI 查询才能达到典型家庭一天的用电量。
用水量的故事更是戏剧性十足。每次问问题都要滴五滴水?洗手的第一秒就用掉了更多水。
优化堆栈
谷歌并非通过某项单一的突破实现这些数字。他们 跨系统每一层的堆叠优化.
他们运行较小的“草稿”模型来勾勒出响应,然后仅在需要时使用更大的模型进行验证。他们将数千个查询批量处理以提高效率。他们使用专为人工智能工作负载设计的定制芯片,其效率比第一代芯片高出 30 倍。
他们的数据中心运行开销仅比理论最低值高出9%,基本上达到了物理上的最高效水平。而且,他们越来越多地使用清洁能源,即使用电量增加,也能减少排放。
底线
事实是,高效的人工智能系统可以比人们普遍担心的更具可持续性,但这需要全面的优化,而大多数行业尚未实现这一目标。
只有当公司真正优化其全栈架构并进行适当的衡量时,这才有效。那些将人工智能基础设施视为事后诸葛亮、在污染严重的电网上运行低效系统的公司?他们才是造成所有人担忧的问题的元凶。
高效和低效的人工智能系统之间的差距绝对是巨大的。而目前,大多数行业仍在运行低效的版本。