字母榜 14小时前
英伟达成不了李厂长的拦路虎
index.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

" 最佳销售 " 黄仁勋终于看到了冰山消融的可能:就在近日,美国总统特朗普通过其社交媒体宣布,经过与中方的沟通,美国将允许芯片巨头英伟达向中国的 " 经过批准的客户 " 出口其先进的 AI 芯片 H200。

特朗普在文章中提到,此举将为美国带来就业和制造业的增强,并提及中方将为此支付 25% 的额外费用。

从今年 4 月 14 日起,英伟达 AI 芯片被实质禁止对华销售,虽然 7 月份英伟达官宣获批出口许可,但并未实际向中国客户交付 H20 芯片。

产品难以进入中国市场,肯定是英伟达的损失,但对于国产平替们来说,这段时间却是难得的发展窗口。寒武纪股价狂涨,摩尔线程火线上市,就连老牌大厂百度,也传出了有可能将昆仑芯拆分上市的消息。

H200 可能解禁,是否意味着 " 国产平替 " 们窗口的关闭呢?

至少二级市场不这么认为。

" 国产平替 " 里最先上市的摩尔线程,其股价不但没有预想中的大幅下跌,反而在开盘后呈现小幅低开后快速翻红的走势,收盘 628.31 元 / 股,当日涨幅达 5.73%,对应总市值直逼 3000 亿元,第二天继续上涨,收盘价达到 735 元,涨幅 16.98%。可见市场对此并不担忧,反而视为利好。

同样国产平替阵营中,最近比较火的百度 AI 芯片公司昆仑芯,因为其并非上市企业,并不能直接看出英伟达解禁 H200 对其的影响。然而,从长期来看,由于国产替代战略的存在,以及本土芯片厂商的独特优势,李厂长再造一个 " 寒武纪 ",没准真不是一个没法实现的梦想,而 H200 也很难成为这条路上的拦路虎。

A

英伟达 CEO 黄仁勋曾在 10 月公开表示,在美国实施严格的出口管制之前,英伟达的高端 AI 芯片在中国市场占据主导地位,市场份额超过 95%。从 A100 到 H100,这些芯片是中国各大互联网公司、科研机构训练大模型的核心引擎。

然而出口管制政策实施后,英伟达在华市场份额从 95% 骤降至接近 0%。2025 年三季度,其在华 AI 芯片销售额占总营收不足 0.1%。昆仑芯等国产厂商开始迅速填补这个空缺。

IDC 数据显示,2024 年中国自主研发的 AI 芯片在国内市场的份额已攀升至 30%,2025 年预计将突破 50%。

H200 获准进入中国市场的消息,给市场带来了震动。虽然英伟达最新的旗舰产品是基于 Blackwell 架构的 B200 系列,但 H200 依然是一款高性能芯片。

它基于成熟的 Hopper 架构,拥有与旗舰 H100 相同的 989 TFLOPS 的 FP16/BF16 半精度浮点算力,集成了约 16896 个 CUDA 核心和 528 个第四代 Tensor Core。其最大的亮点是配备了高达 141GB 的 HBM3e 高带宽内存,内存带宽达到惊人的每秒 4.8TB,这甚至超过了 H100 的 80GB HBM3 内存和 3.35TB/s 的带宽。

对于需要处理万亿参数、消耗海量显存的大模型训练任务而言,更大的内存容量和带宽意味着可以容纳更大的模型、使用更大的批次进行训练,从而显著提升效率。

事实上,H200 的回归并非意味着英伟达能完全重夺中国市场。

第一个难题就是高昂的价格。按照单颗 H200 售价约 4 万美元计算,25% 的抽成意味着每颗芯片需要额外支付 1 万美元。这使得 H200 的实际采购成本远高于此前的 H100,也高于国产同类产品。

其次是配额限制。销售仅限于 " 经批准的客户 ",并由美国商务部进行审查。这意味着大量中小企业和被列入实体清单的机构无法获得采购资格,而这恰恰是国产芯片的主要市场空间。

更重要的是市场分化的趋势。英伟达的优势在于极致性能和成熟的 CUDA 生态,这对追求尖端算力的头部互联网公司具有吸引力。但在强调安全可控的政务、金融、能源等关键领域,国产替代已成为刚性需求,H200 难以进入。

然而需要强调的是,H200 的性能与此前英伟达专为中国市场推出的 " 阉割版 "H20 形成了鲜明对比。

尽管 H20 拥有看似不错的 96GB 显存,但其算力被大幅削减至仅 148 TFLOPS。据美国智库进步研究所的报告评估,H200 的性能是 H20 的 6 倍左右,这使其成为一个完全不同量级的竞争者。

这种性能上的巨大落差导致 H20 在市场上反应平平。腾讯控股总裁刘炽平在财报电话会议上明确表态,公司已储备足够的 GPU 库存以支撑未来的模型训练工作,无需采购 H20。阿里云在 2026 财年第一季度财报中也表示,H20 的实际算力表现 " 无法满足大模型迭代需求 "。

当前国产 AI 芯片主流算力多处于英伟达 A100 阶段。比如寒武纪的旗舰产品思元 590,明确对标英伟达 A100;刚刚登陆科创板的摩尔线程,其 AI 芯片 MTT S3000 同样对标 A100。少数厂商产品仅接近 H100 水平,像沐曦计划 2026 年下半年才对流片对标 H100 的产品进行研发,与 H200 存在明显代差。

H200 的回归还给国内带来了英伟达引以为傲的 CUDA 生态。

CUDA 是一个包含了编译器、库、开发工具和开发者社区的完整生态系统。深度学习框架本身不具备直接调用 GPU 的能力,必须通过 " 中间适配层 " 才能让 GPU 干活,而 CUDA 就是英伟达 GPU 的 " 专属中间适配层 "。过去十几年,全球绝大多数 AI 研究和商业应用都在 CUDA 上构建。

百度飞桨可以适配昆仑芯,此时它不依赖 CUDA,而是依赖昆仑芯的 " 专属中间层 "(XPU SDK)。但如果开发者的模型是构建在 CUDA 上的,那么想要使用昆仑芯去运行它,就必须得 " 翻译 " 成飞桨能听懂的代码。

百度飞桨虽推出了插件式 CUDA 兼容类硬件接入方案,能让硬件厂商复用部分 CUDA 算子,kernel 复用率最高可达 92.6%,但这只是针对硬件厂商的适配优化,在一些关键任务上,仍然需要开发者重新使用飞桨平台编写。

出于对开发效率、稳定性和生态成熟度的考量,部分追求极致性能且预算充足的商业客户,可能会选择继续采用英伟达方案。但这并不意味着国产芯片会失去市场——两者的目标客户群体正在分化,英伟达吃高端市场,国产芯片则在中低端市场和安全可控领域站稳脚跟。

它基于成熟的 Hopper 架构,拥有与旗舰 H100 相同的 989 TFLOPS 的 FP16/BF16 半精度浮点算力,集成了约 16896 个 CUDA 核心和 528 个第四代 Tensor Core。其最大的亮点是配备了高达 141GB 的 HBM3e 高带宽内存,内存带宽达到惊人的每秒 4.8TB,这甚至超过了 H100 的 80GB HBM3 内存和 3.35TB/s 的带宽。

对于需要处理万亿参数、消耗海量显存的大模型训练任务而言,更大的内存容量和带宽意味着可以容纳更大的模型、使用更大的批次进行训练,从而显著提升效率。

B

与其他国产 AI 芯片厂商不同,昆仑芯并非孤立的硬件产品,而是百度 AI 生态中的关键一环。

2021 年,百度的智能芯片及架构部门完成了独立融资,正式成立了昆仑芯(北京)科技有限公司。尽管已经成为一家独立公司,百度依然是其控股股东,持有约 59.45% 的股份。

昆仑芯第一代产品在 2020 年量产,采用 14nm 工艺和自研的 XPU 架构,INT8 算力为 260TOPS,功耗控制在 100 瓦级别。

到目前量产的第三代 P800 芯片,工艺已升级至 7nm,FP16 算力达 345TFLOPS ——这个数字是英伟达中国特供版 H20 芯片的 2.3 倍。

更值得关注的是昆仑芯背后的全栈技术整合能力。

在百度构建的 AI 技术体系中,昆仑芯提供底层算力,飞桨 ( Paddle ) 深度学习框架负责中间调度,文心系列大模型则是最终应用。这种 " 芯片 - 框架 - 模型 " 的垂直整合模式,与谷歌的 TPU 芯片、TensorFlow 框架和 Gemini 模型的组合如出一辙。

这种闭环带来的好处是显而易见的。

飞桨可以针对昆仑芯的硬件特性进行深度优化,文心大模型的训练和推理效率因此得到提升 ; 反过来,大模型的实际需求又为昆仑芯的迭代指明方向。

相比之下,其他国产芯片厂商往往需要适配多个主流框架,这在开发效率和性能优化上都面临更大挑战。

独立运营后的昆仑芯,商业化进展超出了不少人的预期。

2024 年营收突破 10 亿元,市场预期 2025 年将增长至 35 亿元以上,并有望实现盈亏平衡。更重要的是客户结构的变化——最初更多依赖百度内部需求的昆仑芯,外部客户占比正在快速扩大,覆盖互联网、电信运营商、大型央国企等关键领域。

2025 年 8 月的一次中标颇具标志性意义 : 昆仑芯在中国移动 10 亿级别的 AI 算力采购项目中,在三个标包中均排名第一。

但昆仑芯还不能高枕无忧,单从业务上看,昆仑芯采用 Fabless 模式,生产环节依赖外部代工。

2024 年上半年其还能较容易地从台积电获取 7nm 晶圆代工产能,但随着境外新规落地,先进制程晶圆代工和 HBM 供应等方面均受到不利限制。

同时,昆仑芯团队的软件优化和框架支持长期优先围绕百度生态展开,对外部开源模型和小众框架的支持度还不够。

相较于其他 AI 芯片,昆仑芯的泛化能力还有提高的空间。

12 月 5 日,昆仑芯完成新一轮融资,投后估值约 210 亿元人民币。

两天后百度发布公告称,正就拟议分拆及上市进行评估。据外媒报道,昆仑芯最初考虑科创板上市,但后来转向香港证券交易所,计划最早在 2026 年第一季度提交上市申请,目标是 2027 年初完成 IPO。受此消息影响,百度港股股价在 12 月 5 日收盘时上涨 5.01%。

对昆仑芯而言,独立上市的意义不仅在于融资。更重要的是,它能让昆仑芯的估值独立于百度的传统业务,避免广告、搜索业务波动对其的影响,资本市场会按照 AI 芯片行业的逻辑对其进行估值。

在产品布局上,昆仑芯也在加速推进下一代产品。沈抖透露,针对大规模推理场景的 M100 芯片已完成回片,主打极致性价比,将于 2026 年上市。字节、阿里、腾讯等头部互联网客户已拿到小规模样片测试并小范围部署,百度也规划了 M100 芯片的大型集群部署场景。

这种 " 内部验证 + 外部拓展 " 的商业化路径,既降低了市场风险,又为产品迭代提供了真实的应用反馈。在英伟达 H200 可能回归的背景下,昆仑芯或多或少也有底气。

C

在 H200 回归的新闻引发热议的同时,更值得关注的是这次 " 解禁 " 背后的政策逻辑,以及它对国产 AI 芯片带来的实际影响。

从政策细节看,这次调整并非一次彻底的 " 放开 ",而是一种 " 有管理的开放 "。

美国政府明确表示,基于 Blackwell 架构的芯片以及下一代 Rubin 架构芯片,仍然被严格禁止出口到中国。允许出口的 H200,本质上是英伟达的上一代产品。换句话说,美国的核心策略并未改变——在最顶尖的 AI 技术上对中国保持代差优势,同时通过出售 " 次旗舰 " 产品获取经济利益。

外媒分析认为,这种模式很可能成为未来美国对华科技出口管制的新常态 : 在不放弃技术霸权的前提下,有选择性地通过出售非尖端但足够强大的技术来平衡经济利益与战略考量,同时以此作为影响中国科技产业发展的筹码。

然而,H200 的回归之路远比表面看起来更加曲折。在美国内部,围绕是否向中国放行高端芯片的争议极大,这使得该政策的长期稳定性存在巨大疑问。

这其中最具代表性的是《SAFE CHIPS Act》 ( 《安全芯片法案》 ) 。

该法案要求美国商务部在 30 个月以上时间内拒绝向中国出口尖端半导体的申请。一旦这项法案获得通过,特朗普将失去芯片出口的决策权。

外媒认为,特朗普政府火速审批 H200 放行,可能是在法案进入审议前抢占先手,通过行政批准制造既定事实。

同时,这种政策层面的不确定性,也让中国企业开始担忧 GPU 供应链。

即便现在可以采购 H200 以缓解短期算力需求,中国的头部大厂和关键行业客户也大概率不会完全放弃国产芯片的适配和应用。

目前国内 AI 企业普遍采用 " 双备份 " ( Dual Sourcing ) 策略——百度自己就是如此,之前百度百舸采用的就是混合算力架构,既用自研昆仑芯,也用英伟达等芯片。

诚然,这种策略会增加短期的研发成本和系统复杂度,但从长远来看,这是应对地缘政治不确定性的明智选择。当供应链随时可能因为政策变动而中断时,技术自主权的价值远超短期的成本增加。

在中国一侧,国家层面对国产替代的政策支持力度也在持续加大。

国家集成电路产业投资基金二期募集金额已达 2000 亿元以上,为芯片企业提供了强有力的资金保障。税收优惠、研发补贴、政府采购倾斜等一揽子政策正在形成合力。国资委 79 号文更是明确要求,2027 年底前实现所有中央企业信息化系统的国产替代。

这些政策信号清晰地表明,在关键技术领域,中国不会因为外部环境的短期变化而动摇自主研发的决心。对昆仑芯等国产 AI 芯片厂商而言,这意味着一个长期稳定且不断扩大的市场空间。

一位接近百度的人士向字母榜透露,芯片本就是长周期规划的产业,长期竞争因素始终存在,昆仑芯在产品迭代时就已考虑过相关变化,因此不需要做大的调整。昆仑芯在今年 11 月公布的未来 5 年发展方向中,已经规划了 M300 以及超节点设备等产品线。

另一方面,H200 允许进口后,可能也会改变百度的采购政策。不过百度方面并未向字母榜透露相关内容。

从更宏观的视角看,H200 的放行与昆仑芯的上市计划,本质上是同一场技术博弈在不同维度的映射。前者代表着美国试图在保持技术优势的同时获取经济利益,后者则体现了中国在关键技术领域寻求自主可控的战略定力。

在这场长期博弈中,短期的政策变动或许会带来市场波动,但真正决定格局的,仍然是技术积累、生态建设和战略耐心。对昆仑芯等国产 AI 芯片而言,挑战依然严峻,但机遇同样清晰——在一个注定分化的市场中,找到自己的立足点,并不断向上突破。

而且,英伟达 H200 究竟能不能进入中国,目前来看,仍然是个未知数。

评论
大家都在看