ZAKER新闻 | 湖北 2024-05-31
ChatGPT日耗电50万度
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

AI 下一个短缺的将是电力?

近来,人工智能发展背后的能耗问题成为市场的焦点,甚至有人提出,"AI 未来比拼的尽头是能源 "。

那么人工智能真的那么耗电吗?未来人工智能发展真的会缺电吗?

01

AI 真的很耗电?

02

AI 会缺电吗?

以上的各种数据说明,AI 确实像一个 " 耗电巨兽 "。那发展 AI 真的会导致能源缺口吗?

其实不会。

根据公开资料,2023 年,美国全口径净发电量为 41781.71 亿千瓦时(也就是 41781.71 亿度电),以 ChatGPT 每天耗电 50 万度计算,按一年 365 天,耗电量约为 18250 万度,这也只占全美发电量的约 0.0044%。

当然全美国不只一个 ChatGPT,但大模型数量也没有成千上万那么多,尽管随着 AI 算力的迅猛增长,电力需求也持续增长,但目前其在整体电力消耗中所占比例较小。

根据公开数据,2022 年中国数据中心用电量达 2700 亿度电,同比增长 25%,占中国当年度全社会用电量的 3.1%;美国 2022 年数据中心用电量占美国电力需求约 3%,对应约 1500-1700 亿度电左右,占比依然比较低。

03

AI 发展带来电力需求增长

虽然 AI 发展不至于会导致缺电,但确实会带动电力需求的增长。

高盛称,2022 年美国来自数据中心的电力需求在总的电力需求当中的份额为 3%,但预计到 2030 年将增加至 8%,电力需求年复合增长率为 2.4%。相比之下,过去 20 年数据中心发电量年复合增率不到 0.5%,过去 10 年发电量年增率为 0%。

Arm 公司 CEOReneHass(雷内 · 哈斯)的预期数据更高,哈斯预计,到 2030 年,美国数据中心耗电占比将达到 20%~25%。Haas 表示,到 2030 年,全球数据中心的用电量将超过世界人口最多的国家印度用电量。

国内也同样,根据信通院与华为的预期,在基准预期下,2030 年中国数据中心用电量将超过 9500 亿度电,是 2022 年的 3.5 倍以上,2022 年到 2030ECAGR 达到 17%。

总而言之,尽管短期内还不会出现 AI 缺电的问题,但未来 AI 的发展确实会驱动电力需求增长,进一步助推全球电力基础装备周期向上。

有句话说得好,现在的科技领域,一天一个新知识,学的头发都要掉光了。一般的朋友,仅仅要抓住这些信息就很难了,怎么分辨、理解这些新领域,怎样抓取机会规避风险又是难上加难,所以专业的事交给专业的人去做。

财秘团队长期致力于各种行业的深度研究与跟踪,推出的长期跟踪电力、人工智能、半导体、智能驾驶、新质生产力等先进制造领域动态,欢迎点击文字链接跳转体验。

来源:财经早餐

相关标签

数据中心 ai 人工智能 美国 发电量
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论