快科技 10 月 16 日消息,随着 AI 行业的快速发展,计算能力的需求也在急剧上升,无论是通过硬件技术,还是大规模 AI 集群建设,企业都在努力提升其 AI 处理能力,然而这也带来了巨大的能源消耗问题。
据分析师 Ray Wang 分享的数据,NVIDIA 的 AI 服务器平台在每一代的更新中都经历了显著的功耗增长,从 Ampere 到 Kyber,功耗八年间增长了 100 倍。
这种巨大的功耗增长主要归因于每一代每机架 GPU 数量的增加,以及每个 GPU 的 TDP 的提升。
例如在使用 Hopper 时,以每机架 10KW 的额定功率运行,而使用 Blackwell 时,由于 GPU 数量的增加,这一功率几乎提升至 120KW。
除了 GPU 数量的增加,其他因素如先进的 NVLink/NVSwitch 网络架构、新一代机架设计以及持续的机架利用率,也导致了超大规模数据中心的能源消耗以惊人的速度增长。
如今,大型科技公司纷纷参与 " 谁拥有更大规模的 AI 机架 " 的竞赛,衡量标准已经从传统的计算能力转变为 " 吉瓦(GW)",像 OpenAI 和 Meta 等公司计划在未来几年内增加超过 10 吉瓦的计算能力。
作为对比,AI 超大规模企业消耗的 1 吉瓦能源,足以供应大约 100 万美国家庭,随着大型科技公司纷纷建设大规模数据中心,单个数据中心的能耗已经相当于一个中等国家或几个美国大州的用电量。
另外国际能源署(IEA)2025 年的 " 能源与 AI" 研究报告估计,到 2030 年,AI 的能源消耗将翻倍,几乎是电网增长速度的四倍。
登录后才可以发布评论哦
打开小程序可以发布评论哦