心智观察所 2小时前
如果DeepSeek选择华为,黄仁勋说的“灾难”到底是什么?
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

本文来自微信公众号:  心智观察所  ,作者:心智观察所

4 月 15 日黄仁勋接受 Dwarkesh Patel 的播客专访时,说了一句分量很重的话:" 如果 DeepSeek 先在华为平台上发布,那对我们国家来说将是灾难性的。"

在整场一个半小时的访谈里,这句话显得格外突兀。它既不是关于供应链的技术阐述,也不是关于 TPU 竞争的商业分析,而是一个高度情绪化的判断。要读懂它,必须把时间倒回去看。

就在这场访谈的前一周,多家媒体已经爆料 DeepSeek 下一代旗舰模型 V4 全面迁移至华为昇腾 950PR,底层代码从 CUDA 重写为华为自研的 CANN 框架,按计划 4 月下旬发布。也就是说,黄仁勋嘴里那个被设定为 " 假设 " 的坏消息,其实已经在发生的路上。

Patel 在访谈中追问得很直接:为什么?DeepSeek 是开源的,理论上可以跑在任何加速器上,即便它在华为昇腾上首发,在英伟达 GPU 上同样能跑,区别到底在哪里?黄仁勋的回答泄露了真正让他介意的东西—— " 假设它是针对华为优化的,针对他们的架构化了,那就会让我们处于劣势 "。

他把 Dwarkesh 描述的 " 全球最强模型运行在美国技术栈上 " 定义为 " 好消息 ",反过来,如果一个来自中国的优秀开源模型以非美国硬件为首要优化目标、在非美国硬件上跑得最好,那才是真正的坏消息。这非常精确的暴露出:英伟达真正害怕的从来不是中国做出好模型,而是好模型不再以 CUDA 生态作为默认的优化起点。

这一层面纱被 Dwarkesh 的追问轻轻挑开以后,整场访谈很多看似 " 关心国家利益 " 的表述,才能还原出它商业本能的那一面。

英伟达真正的护城河从来不是 GPU 本身的算力,而是 CUDA 作为 " 事实标准 " 的软件生态位。过去近二十年里,几乎所有主流 AI 框架、算子库、开源模型的首发优化,都把 CUDA 作为默认起点。

这条生态护城河的运转逻辑非常简单:只要新模型先在 CUDA 上调通跑顺,那么哪怕华为、谷歌 TPU、AMD MI300 在纸面上单卡性能不差,它们在客户那里也只能是 " 备选方案 "。因为迁移意味着重写算子、重做精度校准、重新调参,工程代价可能以月计。而 " 事实标准 " 的地位一旦建立,就会自我强化:越多人优化 CUDA,CUDA 上跑得越好;越多人在 CUDA 上做研究,新工作自然继续落在 CUDA 上。

DeepSeek 若先在昇腾上发布,戳破的恰恰是这条链条的起点:这意味着至少存在一条真实、可运行、被顶级模型验证过的非 CUDA 路径,并且这条路径上会沉淀下一批熟练的工程师、一套可复制的优化经验、以及第一批用户信心。这才是黄仁勋那句 " 灾难性 " 的真实分量:不怕某一款芯片被替换,但怕 " 开源模型必须以 CUDA 为首要优化目标 " 这条默认规则出现第一个公开的反例。

把这一点放回中国算力基础设施的真实图谱上看,黄仁勋的焦虑就不再显得夸张。

华为昇腾 910C 的单卡 FP16 算力大约是 800TFLOPS,坦率说仍不及英伟达 Blackwell 旗舰,SemiAnalysis 的估算显示单卡性能差距大致在三倍左右;但华为选择的不是单卡硬拼,而是系统工程层面的群体战术。2025 年 4 月推出的 CloudMatrix384 超节点,把 384 颗 910C 通过 6912 个 400G 光模块全互联堆叠在一起,BF16 集群算力达到 300PFLOPS,约为英伟达 GB200NVL72 旗舰集群的 1.7 倍,HBM 总容量更是达到后者的 3.6 倍。功耗代价确实惊人,整体功率近 560 千瓦,相当于英伟达同级方案的近四倍,但在中国可再生能源装机全球第一的背景下,这个代价可以部分被 " 便宜的瓦特 " 吸收。

2025 年 9 月的华为全联接大会,徐直军公布了更激进的路线图:Atlas950 超节点规模 8192 卡、四季度上市,Atlas960 超节点规模 15488 卡、2027 年四季度上市,昇腾 950PR/DT、960、970 三年路线依次展开。这是一条 " 以规模换效率,以系统换单点 " 的清晰叙事,而黄仁勋在访谈中提出的 " 五层蛋糕 ",即最底层是能源、能源充足时芯片就够用、中国能源充足所以 7nm 也够,恰恰是对这条叙事的另一种表达方式,只不过他是从对手视角在说。

黄仁勋并不是没有意识到华为这套打法在商业上意味着什么,他只是没法在镜头前用太直白的语言说。访谈里他反复强调一件事,中国是全球第二大计算市场,中国拥有世界上大约一半的 AI 研究人员,中国算力总量非常庞大:" 如果他们想整合计算资源,完全可以满足需求 "。

这些话通常被解读为黄仁勋在为重返中国市场做舆论铺垫,其实它们构成了一个完整的推理链:算力够、能源够、研究人员够,唯一缺的是让这些要素沿着非英伟达路径组织起来的粘合剂;而这个粘合剂,就是一款可以让全球开发者看见 " 在非 CUDA 栈上也能跑出世界级结果 " 的旗舰模型。

DeepSeekV3 和 R1 在 2025 年初曾引发过一次全球震动,它们用极低成本训出接近 OpenAI 水平的表现,第一次让市场开始怀疑 " 算力决定一切 " 的范式。现在,V4 如果真的以昇腾首发,其象征意义将远超 V3。V3 证明的是中国能做好模型,V4 要证明的是中国能在自己的硬件上做好模型。这两件事的差别,就是 " 客户 " 和 " 对手 " 的差别。

理解了这一层,访谈里黄仁勋那些看似不连贯的逻辑闪烁就能连成线。Patel 在对话中其实递出过好几记尖锐的反问,都被黄仁勋用策略性模糊处理掉。

主持人 Patel 问,既然你说所有美国 AI 实验室都受限于算力,那让中国算力比美国少、让美国更早达到某个 "Mythos 级别 " 的能力上限,不是更符合美国利益吗?黄仁勋回答说,要让那种结果成立,得把情况推到极端,必须让中国完全没有算力,而这是做不到的。

这个回答其实绕过了 Patel 真正的问题:出口管制的目的从来不是让对手归零,而是维持 12 到 18 个月的能力窗口。黄仁勋把一个关于时间差的问题,偷换成了一个关于绝对值的问题。

这种辩论技巧在访谈里出现了不止一次,它解释了一个矛盾现象:黄仁勋一方面用 DeepSeek 的成功证明 " 出口管制没用、中国反正会创新 ",另一方面又用 " 再不卖中国就彻底脱离我们生态 " 来论证应该继续卖芯片给中国。

如果前者为真,后者的逻辑就站不住脚,因为既然脱离不脱离都会创新,那么卖芯片买到的 " 忠诚 " 就是虚构的。这个内在的不自洽,恰恰提示我们:黄仁勋的真实目标不是国家战略推理,而是保住中国市场这个收入盘子的同时、保住 CUDA 作为事实标准的生态位——这两件事现在正在同步滑落,他必须同时往两头拉。

访谈里还有一段经常被忽略的对话,但它其实把黄仁勋的策略图景交代得非常完整。Patel 问,为什么英伟达不同时开几条架构路线,比如晶圆级芯片、大封装芯片、不用 CUDA 的芯片?黄仁勋的回答是 " 我们模拟过了,效果更差 "。

这个回答实际上还是前面说的战略,英伟达不会自己去稀释 CUDA 的标准地位,哪怕是内部。但他紧接着又承认,英伟达最近把 Groq 整合进了自己的 CUDA 生态,原因是 token 的平均售价上涨,高价值用户愿意为更低延迟付费,这开辟了一个全新的推理细分市场。

换句话说,英伟达的策略是 " 向外吸纳、向内收敛 ":所有能够跑 CUDA 的加速器都可以被纳入生态版图,但 CUDA 本身必须是不可替代的那个中心。这种打法过去十年非常成功,因为它让英伟达在各类专用芯片面前始终保持 " 平台 " 身份而非 " 玩家 " 身份。但这套打法在面对华为时,第一次失灵了。

华为不仅做芯片,还做网络、做光模块、做超节点互联、做 CANN 框架、做 MindSpore、做故障容错训练软件,它是在英伟达的全栈覆盖面上做另一个全栈。你无法把一个平行宇宙的全栈 " 纳入 " 你的生态,你只能让它成为你的对手。而一旦 DeepSeek 这样的顶级开源模型开始为这个平行全栈背书,英伟达 " 平台 vs 玩家 " 的身份优势就会松动。

再把视野拉回到中国大陆相关的部分,访谈中还有几处值得单独拎出来看。其一是黄仁勋罕见地使用了 " 研究性对话 " 这样相当软性的表达,说 " 把中国变成敌人,可能并非最佳方案 ",并警告建立 " 美国封闭栈 vs 外国开源栈 " 两个割裂生态对美国是 " 极其愚蠢 " 的结果。这段话读起来像战略分析,但它背后的商业现实是:英伟达在中国的业务正在被一刀一刀削。

从 A100/H100 被禁、到 A800/H800 出炉又被禁、到 H20 专供中国版在 2025 年 4 月一度被要求申请许可、再到 7 月恢复销售但交付能力有限。据报道,字节、阿里、腾讯在被禁前三个月仍向英伟达下了超过 160 亿美元的 H20 订单,这说明中国市场的真实需求仍在。

黄仁勋每呼吁一次 " 不要脱钩 ",背后对应的都是一次他能清楚看到的市场份额被实质性转移。其二是他对中国算法能力的承认:" 人工智能的大部分进步都源于算法的进步,而不仅仅是硬件的改进 ",再加上中国拥有全球最庞大的 AI 研究人员队伍," 难道不是他们最根本的优势吗?"

以这种表达方式,他在向美国政策圈传递 " 制裁无法阻止中国在 AI 上赶超 " 的信号,为解除出口限制铺路;但同一套逻辑,若被中国方面接受,得到的结论却是 " 既然算法优势在手、算力通过系统工程可以补齐,那么全面去 CUDA 化是有机会成功的 ",这是一把双刃剑,黄仁勋想要的是前半段效果,但后半段效果是他自己的论点附带制造的。

把所有这些线索汇拢起来看,这场访谈的真正看点不在黄仁勋说了什么,而在他选择在什么时间、以什么方式去说。

4 月 15 日这个时间点,卡在 DeepSeekV4 传出昇腾首发消息与 V4 正式发布之间;选择 Patel 这个以硬核提问著称的播客,而非传统财经媒体,本身就说明英伟达希望把信息直接打进技术社群和政策圈那个交集;访谈中所有关于中国的段落:五层蛋糕、能源优势、算法优势、50% 的研究人员、庞大的计算市场等都在指向同一个结论:你无法通过阻断来赢,你只能通过保持在场来赢。这是一套典型的 " 让我继续卖 " 的论证,只不过包装成了国家利益框架。

因此逻辑就清晰了:第一,黄仁勋的决策优先级中,CUDA 生态的标准地位排在单款产品之上、甚至排在单一市场份额之上,所以他宁可被看作在为中国说话,也不愿看到非 CUDA 栈出现一个成功的全栈范本;

第二,他对竞争的判断是 " 时间维度而非终点维度 ",华为最终能不能追上不重要,重要的是在追上之前英伟达必须保持在场;

第三,他对 " 开源 " 这件事的态度带有明显的工具理性,开源好不好,取决于开源模型首发时是优化哪一家的硬件,这和他在 2025 年 7 月北京之行公开盛赞 DeepSeek 是 " 革命性开源推理模型 " 之间,已经有了明显的情绪落差。

他在访谈里其实是在同时向华盛顿和北京喊话。向华盛顿说 " 请让我继续卖,否则我们会输掉生态 ",向北京说 " 请继续用我的芯片,否则你们会被迫走一条更贵的路 "。

所以,黄仁勋对 "DeepSeek 与华为合作 " 的那句 " 灾难性 " 评论,是一次精心选择时机的战略喊话,对象是即将被一款中国顶级开源模型和一家中国全栈厂商共同背书的 " 另一条技术路径 " 的现实可能。如果 DeepSeekV4 迁移到昇腾,代表着顶级模型、顶级硬件、开源传播这三个变量第一次在中国大陆完整合体;而这个合体一旦在全球开源社群中形成首发效应,过去二十年英伟达赖以统治 AI 产业的 " 模型 - 框架 - 硬件 " 默认栈就会出现第一个被主流证实可用的备份栈。

技术上它未必立刻动摇 CUDA,但叙事上它动摇了 "CUDA 是唯一起点 " 这件事。而叙事,在快速演化的产业里,往往比技术本身先一步决定钱流向哪里。这就是黄仁勋为什么要在这个特定的四月,用 " 灾难性 " 这三个字,把整场关于供应链、TPU、蛋糕和架构的访谈,引向那个他其实最不想谈、但又必须表态的主题。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

华为 黄仁勋 美国 英伟达 开源
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论