财联社 4 月 10 日讯(编辑 潇湘)芯片设计公司 Arm 曾凭借通过设计各种方法,最大限度地降低智能手机功耗和延长电池寿命而声名鹊起。而如今,该公司的掌舵者表示,人工智能应用可能也需要同样的提高能效的变革。
Arm 公司首席执行官 Rene Haas 当地时间周二在接受媒体采访时表示,如果不提高效率,到 2030 年人工智能数据中心的耗电量可能高达美国电力需求的 20%-25%。而如今,这一比例可能还只有 4% 或更少。
" 说实话,这很难持续下去,"Haas 称。
事实上,近几个月来,有关 "AI 尽头是电力 " 的说法已经引发了行业内的热议。特斯拉首席执行官马斯克在今年 2 月就曾表示,人工智能计算的约束条件是可预测的。
马斯克当时称," 我在一年多前就预测过芯片短缺,下一个短缺的将是电力。我认为明年将没有足够的电力来运行所有的芯片 "。
OpenAI 首席执行官奥尔特曼也曾在达沃斯世界经济论坛年会上指出,人工智能将消耗比人们预期更多的电力,未来的发展需要能源突破。
这些言论或者说担忧,已经推动了美股市场上电力股和能源股股价的大幅走高。
国际能源署 ( IEA ) 在今年 1 月的一份报告中曾表示,ChatGPT 响应一个请求平均耗电 2.9 瓦时——相当于将一个 60 瓦的灯泡点亮略少于三分钟的时间,这几乎是一次谷歌搜索查询平均耗电量的十倍。
该机构表示,在 2023 年至 2026 年之间,AI 产业的电力需求料将增长 10 倍以上。
对此,Haas 指出," 如果这些大型数据中心的电力需求不断增加,那就很难加速实现我们所需的相关技术突破。"
值得一提的是,本周二,美国和日本刚刚宣布了一项资助两国大学进行 AI 研究的 1.1 亿美元计划。Arm 及其母公司软银集团也将共同为该计划提供 2500 万美元的资金。Arm 的资金将用于美国匹兹堡卡内基梅隆大学与日本庆应义塾大学之间的协作。
Haas 表示,他希望上述美日研究合作计划,能致力于开发出解决上述电力问题的方案。
登录后才可以发布评论哦
打开小程序可以发布评论哦