格隆汇 10小时前
国产GPU龙头摩尔线程交卷:2025年营收翻两倍,奔赴十万卡级集群战场
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_caijing1.html

 

4 月 26 日,国产 GPU 龙头摩尔线程发布 2025 年财报与 2026 年一季报,交出一份令人满意的成绩单。

公告显示,2025 年公司实现营收 15.05 亿元,同比激增 243%;2026 年一季度公司实现营收 7.38 亿元,同比增长 155.35%,并签下高达 6.6 亿元的智算集群订单。

在这份成绩单背后,一个属于中国的英伟达叙事,正加速照进现实。

一、营收持续爆发,商业化临界点已至

2025 年,摩尔线程实现营业收入 15.05 亿元,同比大幅增长 243.37%,相较于 2022 年增长超过 30 倍。营收增长主要由云端产品放量驱动,其中云端产品收入 14.61 亿元,同比增长 250.30%。进入 2026 年,高增长势能得到延续。第一季度,公司实现营业收入 7.38 亿元,同比增长 155.35%。

从季度数据来看,2025 年第四季度收入达到 7.21 亿元,占全年接近一半,而 2026 年一季度收入继续维持在 7 亿元以上,并较 2025 年第四季度实现环比增长,说明订单较快放量的节奏趋于常态化。

如果说营收数据是后视镜视角,那么最新一季财报中的多项前瞻指标,则清晰勾勒出摩尔线程后续的成长确定性。

2026 年一季度,公司存货由 13.32 亿元提升至 21.95 亿元,增长 64.8%;同时,预付款项大幅增长,应收账款规模亦明显扩大,这一组合通常对应的是订单前置驱动的备货与生产爬坡。与此同时,合同负债由 2156 万元上升至 5731 万元,同比增长 166%,意味着更多客户开始提前锁定算力资源。

除此之外,摩尔线程在 3 月底正式公告重大合作,公司与合作客户签订产品销售协议,合同标的为摩尔线程夸娥(KUAE)智算集群,合同总价款 6.60 亿元。该订单体量约等于 2025 年全年营收的四成。

大额标杆订单落地叠加预收款项充足、在手订单储备饱满,摩尔线程 2026 年全年营收维持高增具备较高能见度。

在收入规模高速扩张的同时,公司保持了优异的盈利能力。2025 年,公司整体毛利率达到 65.57%,其中云端产品线的毛利率高达 70.32%。高毛利的维持,得益于以 S5000 为代表的高性能 AI 智算产品具有极强的市场竞争力。

2025 年公司归母净利润亏损较上年同期大幅收窄 38.16%,同时,2026 年第一季度,公司实现单季度盈利,归母净利润为 2935.92 万元,同比增加 1.42 亿元;归母扣非净利润亏损 0.54 亿元,亏损同比收窄 60.10%。

尤为关键的是,利润的改善提升,并非依靠压缩研发、削减投入换取短期账面好看。

摩尔线程始终坚守长期技术路线。2025 年公司的研发投入达 13.05 亿元,占收入比重高达 86.68%,即便在 2026 年一季度收入同比大幅增长后,研发投入占比仍维持在 50% 左右,显示出公司仍在持续进行技术攻坚。与之对应,公司已累计申请专利 2014 项,其中发明专利 1743 项,授权专利 806 项。此外,截至 2025 年末,公司研发人员达 1009 人,占员工总数 79.20%,其中硕士及以上学历占比达 77.21%。

持续较高的研发投入为公司构建了坚实的技术护城河,也为后续产品迭代、市场扩张与长期商业化发展,埋下关键伏笔。

与此同时,公司产品体系也在持续完善。摩尔线程目前已形成覆盖云 - 边 - 端的完整产品矩阵,从云端智算板卡、智算一体机、智算集群,到桌面图形加速显卡、专业视觉加速卡、边缘 AI 计算模组以及个人智算终端设备,逐步构建起面向多层级算力需求的全栈供给能力。

其中,代表性产品 AI 算力本 MTT AIBOOK,搭载自研 " 长江 "SoC 芯片,异构 AI 算力达 50TOPS,支持端侧大模型及智能体的本地化部署与运行,能够实现端侧低延迟与云侧高性能的协同,成为连接开发者与 MUSA 生态的重要入口。

二、集群能力持续飞跃:从千卡、万卡,再到十万卡级

在 AI 算力的竞技场上,真正的较量早已从单颗芯片的纸面参数,上升至成千上万颗芯片协同作战的系统级工程能力。摩尔线程的核心突破在于完成从单卡设计到万卡级集群交付的全链条能力构建。

S5000 是万卡级集群的基石。这款 AI 训推一体全功能 GPU,AI 算力(稠密)可达 1000 TFLOPs,配备 80GB 显存、1.6TB/s 的显存带宽及约 800GB/s 的高速卡间互联带宽。这些核心指标,使其能够对标国际主流产品,满足从大模型训练到高性能推理的需求。

S5000 不是实验室的样品,已在实现规模化量产。即便身处实体清单限制下实现稳定供货,实属难得。客户覆盖范围快速扩张,从互联网企业、专业 AI 企业到算力服务提供商,产品广泛应用于大模型训练及推理、科学计算等场景,被集成进公司的板卡、一体机及夸娥智算集群中。

区别于行业普遍的千卡级部署,摩尔线程已率先实现万卡级集群落地。基于 S5000 打造的夸娥(KUAE)万卡训练智算集群,从技术层面成功攻克了万卡级硬件系统优化、高速互联与系统级容错等系列高难度工程壁垒,可实现万亿参数大模型端到端训练,成功实现商业化部署,多项关键指标均达到国际主流水平。

摩尔线程的 6.6 亿元夸娥智算集群订单,是国内 GPU 厂商迄今为止规模领先的单体集群订单,这份合同的意义远超金额本身,它标志着摩尔线程攻克大规模集群的工程化壁垒,进入更大规模商业化交付阶段;也预示着国产算力正式进入高端市场核心供应链。

万卡交付并非终点,是通向更远大蓝图的阶梯。

在 2025 年 12 月的 MUSA 开发者大会上,摩尔线程发布了新一代 " 花港 " 架构。根据中信证券的报告,该架构在计算密度上提升 50%,能效提升 10 倍,并支持从 FP4 到 FP64 的全精度计算,集成新一代异步编程模型,通过自研 MTLink 高速互联技术,可支持十万卡以上规模智算集群扩展,解决超大规模集群通信瓶颈问题。基于花港架构,公司规划推出高性能 AI 训推一体 " 华山 " 芯片与专攻高性能图形渲染的 " 庐山 " 芯片,形成差异化产品矩阵。

" 花港 " 架构旨在抢占下一代十万卡级的算力竞争制高点。

大模型竞赛已进入狂暴消耗算力与数据的阶段,训练成本成为核心约束。在此背景下,算力即成本,效率即生命。尤其当前 AI 算力集群的 scale-out 横向扩展与 scale-up 纵向升级并行的趋势愈演愈烈,集群效率已取代单卡参数,成为核心竞争壁垒。

从 S5000 旗舰芯片规模化量产打底,到实现夸娥万卡级集群工程化落地,再到 " 花港 " 架构前瞻布局十万卡级集群,摩尔线程在集群能力上实现了三级跨越,为自己构筑最宽阔的护城河。

三、GPU 的终局竞争,本质是生态竞争

当硬件参数持续提升,量产能力逐步达标,国产 GPU 的发展进入深水区。此时的胜负手,不再是单一的算力参数,而是更为复杂、厚重且难以复制的生态体系。

事实上,GPU 不是一个单纯的硬件生意。英伟达之所以能够在 AI 时代持续占据主导地位,并不只是因为其单卡性能领先,而是因为其构建了一整套围绕 CUDA 展开的软件体系。开发者写下的代码、模型训练的框架、推理部署的工具链,都与 CUDA 深度绑定,最终导致客户迁移成本极高,生态自我强化。任何挑战者,都必须直面这座生态壁垒。

这赋予了英伟达强大的定价权。在资本市场,这也是英伟达相较于其他 AI 芯片估值存在极大溢价的重要原因之一。

如果说英伟达通过 CUDA 构建起算力时代最核心的护城河,那么 MUSA 架构正是摩尔线程的关键抓手。

MUSA 架构是公司自主研发的融合 GPU 硬件和软件的统一系统架构。该架构涵盖统一的芯片架构、指令集、编程模型、软件运行库及驱动程序框架等关键要素。

摩尔线程采取的是兼容但不依赖的策略。一方面,MUSA 覆盖芯片架构、指令集、编程模型与驱动框架,通过 MUSIFY 迁移工具,实现对 CUDA 生态的快速迁移;另一方面,MUSA 架构没有简单走直接转译模拟兼容的路线,而是以长期自主可控为目标搭建独立架构,坚守底层技术自主,以避免长期依附带来的技术与合规约束。

生态能否成立,除了取决于架构本身,还取决于三个很关键的变量,即开发者是否愿意进入、工具体系是否足够完善、应用是否能够持续落地。

在开发者侧,摩尔线程通过社区与 " 摩尔学院 " 等方式推进开发者培养与生态建设。根据公开资料,2025 年,摩尔线程的首届 MUSA 开发者大会(MDC2025)吸引了超 2000 名开发者。目前,其开发者生态已赋能超过 45 万名开发者,初步反映出其触达开发者群体的能力。

在工具体系侧,MUSA 已完成对 PyTorch、vLLM、Triton 等主流框架的兼容,使模型可以在既有开发体系下运行。在此基础上,公司进一步强化对前沿模型的响应能力,使生态能快速上线。

2025 年以来,摩尔线程已实现对 DeepSeek、GLM、MiniMax、Kimi、Qwen 等 SOTA 大模型的 " 发布即适配 "(Day-0 适配),形成常态化支持机制。面对最新发布的 DeepSeek-V4 这类对底层精度能力、算子支持、编译优化与推理效率提出更高要求的先进模型,摩尔线程依托 MTT S5000 原生 FP8 能力与完善的软件生态,率先实现 Day0 适配,进一步验证了国产 GPU 平台对前沿模型的快速承载能力。

当开发者规模、软件体系成熟度与模型适配速度开始同时提升时,生态飞轮将形成。开发者越多,适配越快;适配越快,模型覆盖越广;模型越多,客户越愿意部署;部署越多,生态反过来吸引更多开发者从而推动生态持续成长。

由此可见,MUSA 生态已步入正向循环,其发展飞轮正在加速转动。

结语

上周,DeepSeek-V4 以 " 价格屠夫 " 姿态杀入市场,预计将推动全域算力与 Token 调用需求持续大幅攀升。

AI 芯片产业正迎来新一轮爆发式增长,但下游客户也对芯片厂商提出了更高维度的要求。AI 芯片竞争将加速从单纯的硬件参数比拼,升级为以集群能力、软件生态与商业化落地为核心的综合实力较量。

以摩尔线程等公司为代表的中国 GPU 企业,正逐步在 AI 算力的系统级创新中形成差异化竞争力,进而参与甚至引领下一代算力体系的构建。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

摩尔 gpu 成绩单 英伟达 ai
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论