证券市场周刊 02-02
国产算力加速追赶,海光信息市值突破6000亿元
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_caijing1.html

 

在英伟达先进芯片被限制进入国内的背景下,国产算力芯片企业仍处在发展窗口期。2026 年 1 月 28 日,海光信息市值突破 6000 亿元,成为 A 股算力板块领涨龙头,其 DCU 产品已在大模型训练场景中初步实现对部分进口产品的替代,标志着国产算力从 " 可用 " 迈向 " 好用 " 的关键一步。 

英伟达 CEO 黄仁勋近期开启 2026 年访华之旅。此前不久,该公司的 H200 芯片正式获批——在满足美国出口限制条件的情况下向中国出口,这一消息未能对英伟达近期股价产生积极作用,其股价仍处于横盘状态。 

对比来看,近期,海光信息 ( 688041.SH ) 、龙芯中科 ( 688047.SH ) 和芯原股份 ( 688521.SH ) 在 CPU 涨价的预期下股价大幅拉升,截至 2026 年 1 月 28 日,三家公司的市值分别超过 6000 亿元、600 亿元和 1000 亿元,均达到上市以来的高位。 

经过近几年的技术迭代和市场扩张,国产算力产业链龙头已经步入业绩兑现期,部分公司 2025 年业绩预告实现收入与利润的大幅增长,基本面改善趋势明显。 

算力需求激增 CPU 供给紧张

据 TrendForce 研究报告,北美云端服务供应商持续加强对 AI(人工智能)基础设施的投资力度,预估将带动 2026 年全球 AI 服务器出货量同比增长 28% 以上,全年服务器整体出货量也将同比增长 12.8%,增长幅度较 2025 年扩大。全球云服务大厂加速人工智能数据中心扩建步伐,不仅驱动了 AI 芯片及存储芯片的需求暴涨,也使服务器 CPU(中央处理器)的需求激增。 

随着 AI 模型推理驱动的 AI 应用不断扩大,CPU 在超大规模和企业级数据中心中发挥越来越重要的作用。招商证券指出,CPU 协调数据流量的核心功能不仅推动传统服务器更新,更催生了新的需求,进一步扩大安装基数。 

国海证券指出,当 GPU(图形处理器)频繁访问 DDR(计算机内存的一种主流类型)内存时,CPU 的并发请求需求将增加,其对 GPU 和内存资源管理的要求也将提高。在超节点架构(一种服务器集群)中,CPU 与 GPU 的数量比普遍是 1:4 或者 1:2,未来该比例有望进一步加大。目前,CPU 正演变为类似于存储的新短板,补足这一短板将是下阶段算力基础设施建设的重中之重。 

同时,通用 AI 助理对 CPU 的算力需求提升。以近期发布的 AI 工具产品 Claude Cowork 为例,在大批量处理场景下,CPU 动态能耗最高可占总动态能耗的 44%。国泰海通证券指出,伴随 AI 助理的加速落地,CPU 需要承担与 AI 大模型相比更多的工作负荷,CPU 的重要性逐步提高,预计需求将加速增长,这种增长不仅是数量的堆叠,更伴随着任务复杂度的剧增。 

市场研究机构 IDC 预测,2025 年至 2030 年间,活跃 AI 助理的数量、任务执行量及 Token(大模型处理文本时的基本单位,通常为单词、子词或符号)的消耗量将分别以 139%、524% 和 3418% 的年复合增长率飙升。

在国际企业层面,英特尔在 2025 年第四季度财报会上透露,CPU 正驱动其多种工作负载业务,云厂商明确表示愿意与 CPU 供应商签署长期协议。不过,英特尔表示其 CPU 产能受限,将优先满足高端产品线。而在近期的业绩发布会上,台积电表示其 3nm 先进制程面临产能瓶颈,产品的交付周期被延长。 

商启咨询预计,2026 年全球 CPU 市场规模约 1412.7 亿美元,2025-2030 年年化增长率约为 8.5%。AMD(超威半导体)预计,人工智能服务器 CPU 市场将从 2025 年的约 82 亿美元增长到 2030 年的约 300 亿美元。 

在国内厂商方面,国产 CPU 厂商经过多年的研发积累,产品线日益成熟。其中,海光信息基于 x86 指令集架构进行芯片研发,打造 "CPU+DCU(数据中心处理器)" 双产品体系,其 CPU 产品完全兼容主流 x86 软硬件生态,客户无需大幅改造现有系统即可完成国产化替代;另一方面,海光 DCU 对标国际主流通用 GPU,兼容 CUDA(英伟达推出的通用并行计算架构,该架构使 GPU 能够解决复杂的计算问题),可满足从十亿级模型推理到千亿级模型训练的全场景需求。 

龙芯中科的 3C6000 系列服务器于 2025 年 6 月底发布,多家合作伙伴基于 3C6000 系列芯片研制整机产品,在 2025 年下半年已形成存储、智算、密码等多处典型应用。该系列服务器芯片可用于构建高性能自主算力底座。 

另外,芯原股份针对 AI 端侧、云侧有丰富的半导体 IP 和相关技术平台积累。芯原的 NPU IP(神经网络处理器 IP)覆盖了服务器、汽车、智能手机、可穿戴设备等 10 多个市场领域,截至目前,相关芯片出货已经近 2 亿颗。 

目前,芯原股份的 NPU 可以为移动端大语言模型推理提供超过 40 TOPS(处理器运算能力单位,每秒万亿次运算),并且已经在手机和平板电脑中量产出货。此外,公司的 AI-ISP(人工智能图像信号处理)芯片定制方案也已经在知名厂商的智能手机中量产。在云侧,比如数据中心和服务器领域,芯原的 VPU(视频处理器)、NPU 和 GPGPU IP(通用图形处理单元 IP)都获得了广泛应用。 

国产算力芯片经营持续改善

根据弗若斯特沙利文预测,全球 GPU 市场规模预计在 2029 年将达到 3.61 万亿元,其中,中国 GPU 市场规模在 2029 年将达到 1.36 万亿元,在全球市场中的占比预计将从 2024 年的 15.6% 提升至 2029 年的 37.8%。 

在最近几年的国产替代进程中,国产算力芯片龙头纷纷走过亏损阶段。比如从扣非归母净利润来看,海光信息于 2021 年第二季度实现盈利,寒武纪 -U 于 2025 年第一季度转盈。摩尔线程 -U 目前尚未实现盈利,公司预计最早可于 2027 年实现合并报表盈利。 

而且,部分国产算力芯片龙头已经出现业绩兑现的情况。自 2024 年第三季度以来,寒武纪 -U 营收规模呈爆发式增长。2025 年第一季度至第三季度,公司营收同比增速分别达 42.30 倍、44.25 倍、13.33 倍,公司存货变动与业务发展步调协同,2025 年第三季度末存货余额为 37.29 亿元,同比增长 2.67 倍。

在技术层面,寒武纪 -U 在云端、边缘端、终端三条产品线的所有智能芯片和智能处理器核以及基础系统软件均构建于自研的 MLU(一款专为人工智能应用设计的处理器)指令集基础之上。公司已掌握 7nm 等先进工艺下开展复杂芯片物理设计的一系列关键技术,已将其成功应用于多款芯片中。寒武纪 -U 智能芯片和处理器产品可高效支持大模型训练及推理、图像和视频的智能处理、语音识别与合成、自然语言处理以及推荐系统等技术相互协作融合的多模态人工智能任务,可支持目前市场主流开源大模型的训练和推理任务。 

2025 年 10 月,寒武纪 -U 完成定向增发,募集资金净额 39.53 亿元。据公司披露,募集资金将主要用于面向大模型技术演进对智能芯片的创新需求,拟开展面向大模型的智能处理器技术创新突破,研发覆盖不同类型大模型任务场景的系列化芯片方案;拟建设先进封装技术平台,增强智能算力硬件产品对未来大模型技术发展新需求的适应性;基于公司智能芯片的硬件架构特点,拟研发面向大模型的软件平台,重点面向大模型技术开展相应的优化策略、软件算法以及软件工具的创新研究,构建面向大模型算法开发和应用部署的高效支撑与服务能力,进一步提升公司软件生态的开放性和易用性。 

与寒武纪 -U 业绩扩张、技术迭代类似,摩尔线程 -U、龙芯中科、芯原股份等公司业绩也在积极转好,技术进步明显。 

据了解,摩尔线程 -U 预计 2025 年实现扣非归母净利润为亏损 10.40 亿元— 11.50 亿元,亏损幅度收窄为 29.59% — 36.32%。公司披露,2025 年,公司推出旗舰级训推一体全功能 GPU 智算卡 MTT S5000,其性能达到市场领先水平,并已实现规模量产。同时,公司依然保持高研发投入,目前仍处于持续研发投入期,尚未盈利且存在累计未弥补亏损。 

龙芯中科预计 2025 年实现营业收入 6.35 亿元左右,比上年同期增长 26% 左右;预计实现扣非归母净利润 -5.03 亿元左右,与上年同期相比,减亏 24% 左右。同时,公司毛利率逐步回归到良好水平。公司披露,2025 年,公司工控领域业务逐渐恢复带动高质量等级产品出货;信息化领域对外技术授权的新业务毛利贡献较大,且与桌面 CPU 配套的低成本桥片逐步开始出货。 

芯原股份预计 2025 年度实现营业收入约 31.53 亿元,较上年同期增长 35.81%;预计实现扣非归母净利润约 -6.27 亿元,亏损收窄比例为 2.49%。公司指出,2025 年全年新签订单金额 59.60 亿元,同比增长 103.41%,其中 AI 算力相关订单占比超 73%,数据处理领域订单占比超 50%。截至 2025 年末,公司在手订单金额达到 50.75 亿元,预计一年内转化的比例超 80%,且近 60% 为数据处理应用领域订单。 

国产算力龙头加速追赶英伟达

目前,国产算力产业链国产替代趋势依旧。尽管英伟达 H200 人工智能芯片获准对华销售,但存在条件限制,比如,中国客户获得的 H200 芯片数量不得超过美国客户购买总量的 50%。 

同时,H200 芯片早已不是英伟达的先进产品,在这款产品之后诞生的新品包括 GB200、GB300,以及基于 Rubin 架构的芯片。2026 年 1 月,黄仁勋发布最新的 NVIDIA Rubin 平台,并宣布该平台 " 已全面投产 "。而 NVIDIA Rubin 平台由六款全新芯片组成,包括 NVIDIA Vera CPU、Rubin GPU、NVLink 6 交换机、ConnectX-9 SuperNIC(超级网络接口卡)、BlueField-4 DPU(数据处理单元)与 Spectrum-6 以太网交换机。 

银河证券指出,对华供应限制意在固化技术代差,将更先进架构的芯片排除在外,使中国市场无法通过商业途径获取最前沿的工具。因此,依赖外部许可的算力模式在战略上不可持续。相反,国产芯片平台将在与 H200 同场景服务中获得更充分的迭代反馈与生态培育机会。 

事实上,国产算力产业链龙头在技术上持续追赶英伟达。海光 DCU 已经与国内外主流大模型全面适配,并在 AI 领域打造出众多标杆产品方案;寒武纪 -U 深耕 AI 智能芯片,产品持续放量。 

据寒武纪 -U 测算,如采用 FP4(4 位浮点)格式的 B200(英伟达 2024 年产品)进行 Llama3.1 70B(一个多语言大型语言模型集合)模型推理,相较于使用 FP8(8 位浮点)格式的 H200,推理吞吐量可提升 3 倍。训练芯片与推理芯片均需要升级低位宽数据的算力能力,软件平台方面也需针对混合位宽的数据运算开展特性优化。寒武纪 -U 已经把低位宽数据的算力能力作为训练与推理芯片升级的重要方向,加快构建面向大模型的算力软硬件技术能力矩阵。 

另外,衡量推理框架能力的重要指标之一是算子覆盖度,它决定了推理框架能够支持的模型类型和应用场景。海光 DCU 芯片与英伟达 GPU 的性能对标,DCU 算子覆盖度超 99%,兼容 CUDA,可满足从十亿级模型推理到千亿级模型训练的全场景需求。 

2025 年,海光 DCU 市占率位列国产 AI 加速芯片头部,深算三号已经投入市场,受到认可。在落地应用方面已覆盖 AI 训练 / 推理、科学计算、金融风控等多个核心场景,新一代产品深算四号研发进展顺利。 

据了解,海光面向互联网客户,与字节、腾讯、阿里、百度等大厂在技术联合研发、产品采购、生态共建等方面有深度合作。各方均有意深化合作,聚焦大模型训练推理、云计算等核心场景,共同推动国产算力生态的成熟与发展。目前,公司发起的海光光合组织已完成 15000 余项软硬件测试,在政务、金融、能源等领域的联合解决方案超 15000 个,形成从芯片到整机到应用的闭环生态。 

另外,摩尔线程 -U 在招股书中强调,相比采用通用 GPU、ASIC(应用专用集成电路)等技术路线的其他单一 AI 加速卡产品,公司所采用的 MUSA(元计算统一系统架构)架构技术具备计算通用性、技术演进能力、生态兼容性以及广泛的市场适应性。能够适配 AI、科学用 AI、大数据处理、数字孪生、图形渲染、高清显示等多样化计算需求。此外,产品兼容全球现有 GPU 应用生态,集成开发框架与工具链,可大幅降低迁移成本,确保技术应用的连续稳定。 

(本文已刊发于 1 月 31 日出版的《证券市场周刊》。文中提及个股仅为举例分析,不作投资建议。)

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 海光信息 英伟达 芯片 gpu
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论