物种日历 08-21
为什么千万不要跟AI说“谢谢”?
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

你跟 AI 说过谢谢吗?

几个月前,OpenAI 的 CEO 山姆 · 奥特曼(Sam Altman)在推文中提及,对 AI 说 " 请 " 和 " 谢谢 " 或许让他们花掉了 " 数千万美元 " 电费。巨额电费也意味着,AI 因为人类的礼貌而消耗了大量的电力资源,变得更不环保了。

OpenAI 的 CEO 山姆 · 奥特曼(Sam Altman)在推文中提及,对 AI 说 " 请 " 和 " 谢谢 " 或许让他们花掉了 " 数千万美元 " 电费。

AI 作为工具,可以助力环保研究和环保事业,但这个工具的研发和运营却相当耗能。更严重的问题是,我们说不清 AI 会造成多少碳排放。

要让 AI 变得更环保,也绝不仅仅是人类不说 " 请 " 和 " 谢谢 " 那么简单。

用一次 AI 有多少碳排放?

AI 工具到底会消耗多少电能,又会造成多少碳排放,这其实是一个很难回答的问题。

最主要的困难在于信息不透明。提供 AI 服务的大公司往往不会公布详细的能耗数据,研究者经常只能通过间接估算进行分析——例如,他们有时会通过英伟达服务器的需求量对 AI 能耗规模进行计算。

这些估算存在很多假设,其结果的可靠程度也比较有限。有时,不同来源的估算会得出差异较大的结论:例如一项估算认为,每使用一次 ChatGPT 平均会消耗 2.9 瓦时的电力 [ 1 ] ,而另一项估算则认为每次查询平均仅需要 0.3 瓦时电力 [ 2 ] ,二者相差了将近 10 倍。

一项估算认为,每次用 ChatGPT 查询平均会消耗 2.9 瓦时电力,耗电量是使用搜索引擎的 10 倍——但我们很难判断这些数字有多准确 | pexels

除此之外,研究者还有另一种方法获得数据:他们可以亲自下载并运行 AI 模型,让它们执行标准化的任务,然后测量由此产生的电能消耗。结合当地电网中火力发电的占比,人们还可以进一步计算出耗电背后的碳排放。这样得出的数据更加准确,但它只适用于开源模型,依然不足以揭示 AI 环境影响的全貌。

在最近发表的研究中,德国科学家就对 14 个开源大语言模型进行了这样的分析 [ 3 ] 。研究发现,不同模型在回答相同问题时的能耗与碳排放差异极大,最大与最小的数据之间甚至相差了 50 倍以上。

扩大参数规模、采用逐步推理可以提升 AI 的表现,但这些因素也增加了运算量,导致碳排放大幅增加。在这项研究的测试范围内,碳排放最多的 AI 模型是Deepseek R1 70B,让它回答 60 万个问题所产生的碳排放,相当于乘飞机在伦敦与纽约之间往返一次 [ 4 ] 。

目前仍有较大比例的电能来自火力发电,因此运行 AI 模型在耗电的同时也会产生间接的二氧化碳排放 | Wikipedia

单次使用 AI 的碳排放并不算大,但考虑到热门 AI 工具有着上亿规模的访问量,相关碳排放总数依然相当可观。在此之外,AI 模型的训练、硬件生产、服务器冷却等环节还有很多额外的环境成本——但由于数据不足,这些成本的总和究竟有多大同样是个谜。

整体不高,但局部影响大

AI 模型的计算工作通常在大型数据中心完成。随着 AI 的迅速扩张,近几年数据中心用电需求快速增长,不过它在全球能源消耗和碳排放中的占比还比较小。

根据国际能源署(IEA)的统计,2024 年数据中心的用电总量约为 415 太瓦时(TWh),占到全球用电总量的 1.5%。供应这些电力产生的二氧化碳排放约为 1.8 亿吨,约占燃烧排放总量的 0.5% [ 5 ] 。

根据该机构的估计,到 2030 年,数据中心的用电量可能会翻一番,达到约 945 太瓦时。虽然涨幅惊人,但在全球电力消耗总量中,它依然只占了大约 3% [ 5 ] 。

不过,数据中心有 " 扎堆 " 的特性,因此哪怕总量看起来不高,局部地区受到的影响仍可能会非常显著。企业往往倾向于将数据中心建设得非常密集,这样有利于高效传输信息,还可以共享电力与冷却设施。这样做非常方便,但可能会给局部供电带来巨大的压力。

与炼钢厂等传统的高耗能设施相比,数据中心在空间上更加密集 | cisco

在一些地方,数据中心的影响比全球平均值要高得多。例如,美国弗吉尼亚州目前已有 340 个数据中心。据研究机构统计,这些数据中心的用电量占到了该州电力消耗总量的四分之一以上 [ 6 ] 。

在这里,数据中心的建设仍在快速推进,电力不足的迹象也开始显现。AI 带来的电力需求缺口可能要靠新建大型燃气发电厂才能解决——而这样一来,碳排放自然也会随之增加。

为 AI 减碳,不说谢谢有用吗?

在谈论减少 AI 碳排放时,不少人都会提议从不对 AI 说 " 谢谢 " 做起,这种说法确实有些道理。

大语言模型在接到用户输入指令时,会将文字拆分成许多基本的 " 词元 "(token)来分析。需要处理的词元数量决定了 AI 的工作量,因此也与能耗和碳排放密切相关。如果能减少 " 谢谢 " 这样可有可无的文字,就能让词元量减少一点,让 AI 在执行任务时少费一点电。

不过,比起一句客套话,对碳排放影响更大的可能还是AI 的推理模式。上面提到的新研究发现:启用逐步推理的大语言模型,碳排放达到了其他模型的 4-6 倍 [ 3 ] 。这是因为,在展现逐步 " 思考 " 过程时,AI 模型会生成额外的文字,它们需要处理的词元数量也会大幅增加。

精简提问、谨慎地选择 AI 模型,这对减少碳排放有些帮助;不过,这个问题终归不能只靠约束使用者来解决。提升 AI 效率、更多使用清洁能源发电、合理布局数据中心才是解决 AI 环境危机的根本途径,而这些措施都需要企业与政府的共同努力。

参考文献

[ 1 ] https://www.sciencedirect.com/science/article/pii/S2542435123003653

[ 2 ] https://epoch.ai/gradient-updates/how-much-energy-does-chatgpt-use

[ 3 ] https://www.frontiersin.org/journals/communication/articles/10.3389/fcomm.2025.1572947/full

[ 4 ] https://www.eurekalert.org/news-releases/1086116

[ 5 ] https://www.iea.org/reports/energy-and-ai

[ 6 ] https://www.nature.com/articles/d41586-025-00616-z

作者:窗敲雨

编辑:麦麦

题图来源:pexels

本文来自果壳自然(ID:GuokrNature)

如需转载请联系 sns@guokr.com

欢迎转发到朋友圈

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 奥特曼 碳排放 准确 开源
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论