驱动之家 前天
AI成“能源黑洞”:NVIDIA AI服务器功耗8年激增100倍!
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

快科技 10 月 16 日消息,随着 AI 行业的快速发展,计算能力的需求也在急剧上升,无论是通过硬件技术,还是大规模 AI 集群建设,企业都在努力提升其 AI 处理能力,然而这也带来了巨大的能源消耗问题。

据分析师 Ray Wang 分享的数据,NVIDIA 的 AI 服务器平台在每一代的更新中都经历了显著的功耗增长,从 Ampere 到 Kyber,功耗八年间增长了 100 倍。

这种巨大的功耗增长主要归因于每一代每机架 GPU 数量的增加,以及每个 GPU 的 TDP 的提升。

例如在使用 Hopper 时,以每机架 10KW 的额定功率运行,而使用 Blackwell 时,由于 GPU 数量的增加,这一功率几乎提升至 120KW。

除了 GPU 数量的增加,其他因素如先进的 NVLink/NVSwitch 网络架构、新一代机架设计以及持续的机架利用率,也导致了超大规模数据中心的能源消耗以惊人的速度增长。

如今,大型科技公司纷纷参与 " 谁拥有更大规模的 AI 机架 " 的竞赛,衡量标准已经从传统的计算能力转变为 " 吉瓦(GW)",像 OpenAI 和 Meta 等公司计划在未来几年内增加超过 10 吉瓦的计算能力。

作为对比,AI 超大规模企业消耗的 1 吉瓦能源,足以供应大约 100 万美国家庭,随着大型科技公司纷纷建设大规模数据中心,单个数据中心的能耗已经相当于一个中等国家或几个美国大州的用电量。

另外国际能源署(IEA)2025 年的 " 能源与 AI" 研究报告估计,到 2030 年,AI 的能源消耗将翻倍,几乎是电网增长速度的四倍。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai nvidia 数据中心 gpu 美国
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论