虎嗅 2小时前
美国最怕的,没准不是华为的芯片,而是中国的电网
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

中美 AI 竞争的终局,可能不是拼 " 算力 ",而是拼 " 电力 "。因为 AI 越猛,越吃电。谁能把这笔电费扛住,谁就能撑到最后。

最近的一些消息,让我越来越相信这个观点。比如前段时间,英国《金融时报》的一则报道就说,中国启动了针对 AI 的电费补贴。在某些数据中心密集的省份,只要你在数据中心全面使用国产芯片,就可以减免你的电费,最高 50%。

有人说,这么多啊,这可省钱了。也有人说,短期是省钱了,可是,能一直这样下去吗?到时候补贴一停,估计又要回到解放前了。

怎么说呢?在我看来,这个补贴,与其说是短期的产业扶持,不如说是我们在 AI 竞争中,发起了一次 " 非对称 " 回击,用廉价充裕的电力优势,弥补芯片性能劣势。

一个电费补贴,怎么就成 " 回击 " 了?它到底打到哪了?

要回答这个问题,我们得先去看看我们的对手,正在经历的一场能源危机。

一、美国 AI 产业的瓶颈,已经从芯片转向了电力

你知道吗?最近美国的科技巨头们,找电都快找疯了。

这话不是我说的。是微软的 CEO 纳德拉说的:现在的最大问题不是计算(芯片)过剩,而是电。如果电力跟不上,即便仓库里堆满芯片也没用。品品这话。世界顶尖的科技巨头,手握最先进的算力芯片,最大的烦恼,居然是找不到足够的插座。

为什么会这样?因为搞人工智能,真是太耗电了。

当 ChatGPT 每日响应约 2 亿个请求时,耗电就足以支持 1.7 万个美国家庭的用电。这还只是一个 AI 应用的电量。预计到 2035 年,美国 AI 算力产生的电力需求,还会翻一番以上。但是,美国的电网又特别不给力。他们的电网系统,大部分建造于几十年前,甚至更早。北美电网运营商就曾发出警告:未来几年,辖区内很有可能会间歇式停电。摩根士丹利也说,2030 年左右,美国某些区域的电力缺口可能高达 20%,AI 就是其中很重要的原因。

当需求爆炸,供给却动不了、修不快时,麻烦就来了。

弗吉尼亚州北部的劳登,一度是全球最大的数据中心市场之一。2025 年,政府宣布收紧数据中心项目的审批。原因之一,就是电网的输电能力已经跟不上需求。同样的情况发生在亚利桑那州的图森。他们拒绝了亚马逊的大型新数据中心项目,因为项目消耗了太多电和水。

那怎么办呢?AI 巨头们只好砸钱。

为了给云计算和人工智能项目供电,微软签署购电协议,重启三哩岛核电站 1 号机组,并买下未来 20 年该电站的所有电力。亚马逊觉得电网效率太低,于是,干脆花了 6.5 亿美金,在电站旁边买下了数据中心园区,直接接入了发电厂。

电力,客观上已经成为了美国 AI 产业的瓶颈之一。

二、我们正在用能源优势,弥补产品性能劣势

聊完美国,再回来看中国。你会发现,我们正在用自己的能源优势,补产品劣势。

什么能源优势?

早在 2022 年,AI 大爆发之前,我们就已经启动了一项超级工程:东数西算。

在中国,有一个天然的 " 错位 "。风电、光电资源最丰富的地方,比如内蒙古、贵州等地的电力用不完。而最需要电的企业,比如有大量数据要处理的互联网企业,却都挤在东部的北上广深,这里寸土寸金,电价也贵。

怎么办?

那就把东边的数据,搬到西部计算。让中国西部那些可能被闲置的,清洁廉价的电力,被东部需要算力的企业更大规模地用起来。这就是东数西算。

这个伏笔,在很多年前就种下了。于是,在 AI 这个用电大户横空出世的今天,它让我们拥有了充足的能源优势。

但这还不够。因为,真正的挑战在于:我们要推动国产芯片替代。因为在 AI 竞赛里,大模型是标,芯片是本。治标,不如治本。

而阻碍一家企业从英伟达换成国产芯片,除了产品性能的差距之外,还有两个难关。

第一个难关,是电费成本。

有评估认为,产生同样多的算力,我们的芯片要多花 30% 到 50% 的电。也就是说,本来 100 万的电费,换了之后,要多花 30 万~50 万。

第二个难关,是生态迁移成本。

CUDA 是一套让程序员可以更好地使用英伟达 GPU 的编程工具。如果说,英伟达的 GPU 是 AI 时代的 " 电脑主机 "。那么,CUDA 就是 AI 时代的 "Windows 系统 "。换芯片,就意味着软件工程师要花大约 6 到 18 个月的时间,把过去十几年在 CUDA 上积累的所有代码、模型、工具链,推倒重来,适配新生态。比如华为的 CANN。

这两个难关,怎么跨过去?答案之一就是:电费补贴。补贴的真正威力,在于它从根本上改变了一家企业看待国产芯片的 " 成本视角 "。

当一家公司在评估一项新技术时,它的成本公式是这样的:

总成本 = 采购成本 + 运营成本(电费占大头) + 迁移成本

在这个公式下,国产芯片很难占优,企业自然没有动力去选择。但现在,这个公式里已经出现了两个我们独有的减项。

第一个减项,叫 " 能源调度红利 "。

东数西算,让你的基础电费从一开始就比别人低了一大截。

第二个减项,叫 " 财政补贴 "。

这就是这次的电费补贴。它在你已经很低的电费基础上再砍一刀。

于是,一个全新的、只属于中国的 "AI 算力成本公式 " 诞生了:

总成本 = [ 采购成本 + 运营成本 + 迁移成本 ] - 能源红利 - 财政补贴

我们没有在公式的前半部分跟对手硬拼。而是用我们独有的 " 系统能力 ",改变了最终的计算结果。这就是:用能源优势,补产品劣势。

电力补贴的本质是用运营成本优惠,覆盖生态迁移成本,从而为国产芯片产业争取到建设生态和迭代技术,最宝贵的时间。

三、弹药、扳机、目标:一个完整的反制系统

拆到这里,事情就清楚了。三件看似独立的事,背后其实是一个闭环。

东数西算,是弹药。

它解决的是能源供给和单位算力成本的问题,让我们在 " 谁有电、谁便宜 " 这条赛道上占据先手。

电费补贴,是扳机。

它规定了这批弹药该怎么用,只有换上国产芯片,你才能用上这笔便宜电。

国产芯片,和以 CANN 为代表的国产生态建设,则是我们要精准到达的那个目标。

弹药决定能打多久,扳机决定能不能打,目标决定打向哪。这三者一起,构成了一个从资源到成本、再到生态的闭环。而这个闭环的目的,从一开始就不止是防守,而是进攻。进攻的方向,至少有两个。

第一,英伟达的生态霸权。

英伟达的 CUDA 生态,就像 AI 领域的 Windows 操作系统。它用极其高昂的迁移成本,锁住了所有用户。我们现在要做的,是用自己巨大的内需市场,催熟 CANN 的国产替代。一旦它在市场里被验证、完善,英伟达一家独大的局面就有被撕开口子的可能。

第二,AI 的成本基础。

因为能源危机,未来搞 AI,成本会越来越高。而我们这里,因为东数西算和电费补贴,成本相对可控。当未来的 AI 竞赛从百米冲刺变成一场消耗战的时候,谁的成本更低,训练出更好的模型,谁或许就能笑到最后。

当正面战场胜算不大的时候,唯一的出路,或许是重新定义战场。

最后的话

英伟达用 CUDA 生态统治了 AI 的上半场。那是一个拼芯片性能、拼算法优化的时代。在那个游戏里,我们确实起步晚了。

但现在,游戏规则正在悄悄改变。

当 AI 从实验室走向大规模商业应用,当模型越来越大、训练越来越频繁,这场竞争就不再只是技术的竞争,而是资源的竞争。不再只是拼谁的芯片更快,而是拼谁能承受得起这场持久战的成本。

丰富的清洁能源,完善的电网基础设施。这些,都是我们在上一个时代积累的 " 隐藏资产 "。现在,它们开始发挥作用了。

所以,才有这么一句话:美国最怕的,不是华为的芯片,而是中国的电网。

当然,这不意味着我们可以躺平。芯片性能的差距,仍然需要时间来弥补。软件生态的建设,更是一场需要耐心的马拉松。但至少,我们找到了一条可能的路径:用能源换时间,用时间换技术,用技术换生态。

技术拼到最后,往往成了拼资源。而我们,最不怕的就是这个。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

美国 芯片 ai 数据中心 亚马逊
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论