2025 年 1 月 21 日,摩尔线程智能科技(北京)股份有限公司(以下简称 " 摩尔线程 ")发布 2025 年年度业绩预告,预计全年营收将达到 145,000 万元至 152,000 万元,同比增长 230.70% 至 246.67%;归属于母公司所有者的净利润亏损预计为 95,000 万元至 106,000 万元,同比减亏 34.50% 至 41.30%。
这份业绩预告把外界对国产 GPU 的关注,从技术可行性的论证阶段,真正推向商业化落地的审视阶段:国产 GPU 能否进入客户的真实业务场景,能否持续稳定交付,能否在工程层面实现可靠、可扩展的运行。
这也意味着,在长期被英伟达与 AMD 主导的高端 GPU 市场,以摩尔线程为代表的中国 GPU 厂商全面开启国产替代的商业化征程。
一、高增长背后的 " 双轮驱动 "
在宏观层面,人工智能算力需求的爆发与国产化替代进程的加速,共同为摩尔线程的业绩增长提供了强劲动力。
近年来,国家密集出台了一系列重磅政策,为集成电路和人工智能产业注入了强大动能。2024 年,工信部等七部门明确提出要加快突破 GPU 芯片等关键技术,并推动超大规模智算中心建设。紧随其后,2025 年国务院国资委推动的中央企业 "AI+" 专项行动,以及国务院《关于深入实施 " 人工智能 +" 行动的意见》,催生了政务、工业等领域对智能算力的真实需求。
这套 " 政策组合拳 " 不仅明确了技术攻关方向,更通过推动智算新基建、设立国产化示范项目等方式,为国产 GPU 芯片提供了宝贵的应用场景和试炼场。
政策东风之外,市场需求端的喷薄而出,构成了更直接的驱动力。当前,以字节、腾讯、阿里为代表的互联网云服务厂商(CSP)正将 "AI 军备竞赛 " 推向新阶段,纷纷宣布了数千亿级别的资本开支计划,其中 AI 算力基础设施是绝对的投资重点。
据弗若斯特沙利文预测,到 2029 年,中国的 AI 芯片市场规模将从 2024 年的 1,425.37 亿元激增至 13,367.92 亿元,2025 年至 2029 年期间年均复合增长率为 53.7%。尤其在 AI 大模型训练、推理需求激增的背景下,GPU 作为算力核心载体,市场规模增速最快,迎来历史性机遇。
摩尔线程的成长,正是踩中了这一时代节拍。
但更值得关注的,是其内生驱动力的变化。2025 年,摩尔线程加速把技术优势转化为订单的路径,产品加快实现从 " 样卡验证 " 向 " 集群交付、持续服务 " 的实质性跨越。
根据招股书,公司产品矩阵覆盖 AI 智算、专业图形、桌面级 GPU 与智能 SoC 等四大类,且 AI 智算板卡与集群是核心营收来源。以 2025H1 为例,公司 AI 智算类业务实现营收 6.7 亿元、占比 95%;AI 智算类业务贡献毛利 4.6 亿元,且该业务毛利率维持在 69% 的高位。
MTT S5000 集群规模化交付,是公司商业化进阶的重要标志。
其中,标志性案例之一是摩尔线程与北京智源研究院合作的 RoboBrain2.5 具身大脑模型全流程训练。该项目基于 MTT S5000 千卡集群完成,训练曲线显示,MTTS5000 千卡集群上的 Loss 走势与国际主流 GPU 训练结果高度重合,相对误差小于 0.62%。这首次验证了国产算力在具身智能大模型训练这一前沿领域的可用性与高效性,更为行业提供了可复制的、可规模化的 " 国产算力训练范式 "。
二、" 全功能 GPU" 路线走向验证——艰难却更具商业前景
摩尔线程坚持的 " 全功能 GPU" 路径,是其区别于其他国产芯片厂商的核心特征,也代表着一条技术门槛更高、但一旦突破便更具商业想象力的道路。
所谓全功能 GPU,需同时满足 " 功能完备性与精度完整性 "。功能完备性意味着在单一 GPU 芯片中集成 AI 计算加速、图形渲染、物理仿真和科学计算、超高清视频编解码四大引擎;精度完整性意味着支持 FP64 Vector、FP32 Vector、TF32 Tensor、FP16/BF16 Tensor、FP8 Tensor、INT8 Tensor 等不同计算精度,以覆盖更多场景。
对比专注于 AI 计算的 GPGPU 或 ASIC 芯片,全功能 GPU 前期投入大、技术门槛高,但一旦突破,在工作效率、生态完整多样性以及兼容性等方面更具有优势,能够更好地适应未来新兴及前沿计算加速应用场景的需求,形成更宽广的护城河。
2024 年推出的第四代 " 平湖 " 架构芯片 MTT S5000,堪称摩尔线程技术集大成之作。其芯片规格显示,着色核心数量达 8,192 个,张量核心 512 个,支持 FP8 精度,片间互连带宽高达 800GB/s。
在实际应用中,基于 MTT S5000 的万卡集群浮点运算能力达到 10Exa-Flops,训练算力利用率(MFU)在 Dense 大模型上达 60%,MOE 大模型上达 40%,有效训练时间占比超过 90%,训练线性扩展效率达 95%,与国际主流生态高度兼容,并在多项指标上具备显著能效优势,直逼国际同代产品水平。这标志着摩尔线程已从单一芯片设计商,升级为具备系统级交付能力的算力基础设施提供商。
摩尔线程的竞争力不仅在于硬件参数,更体现在软硬协同的工程化能力上。其 MUSA 架构涵盖统一指令集、编程模型、运行库及驱动框架,形成完整软件栈。例如,针对 AI 训练推出的 Torch MUSA 框架,可无缝适配 PyTorch 生态,支持开发者以最小成本迁移现有模型。在图形领域,公司自研驱动已支持 DirectX 12、Vulkan 等主流 API,兼容近千款游戏和应用。这种软硬一体化的解决方案,有效降低了用户的使用门槛,使国产算力具备 " 可持续使用、可复制部署 " 的特征。
在生态协同方面,摩尔线程积极推动产业链深度协同,与硅基流动等生态伙伴建立战略合作。摩尔线程与硅基流动的合作不仅仅是单点的性能调优,更形成了一套面向 MTT S5000 的标准化推理方案。双方基于 S5000 计算卡的 FP8 低精度推理技术优化,使单卡 Prefill 吞吐突破 4000 tokens/s,Decode 吞吐超过 1000 tokens/s,刷新了国产 GPU 在超大规模 MoE 模型推理场景的性能纪录。
摩尔线程正逐步构建从芯片到集群、从硬件到算法的端到端解决方案能力,使其在大规模商业化中展现出差异化优势。
展望:从技术验证到商业闭环的漫长征程
回到 2025 年业绩预告本身,它更像是国产 GPU 叙事交出的一份阶段性答卷。当技术路径已得到验证,商业化进程进入稳定推进阶段,以摩尔线程为代表的国产 GPU 厂商,正以前所未有的速度,参与到 AI 基础设施的建设之中。
展望未来,通过 IPO 募资后,公司计划将资金投向新一代 AI 训推一体芯片、图形芯片等研发项目,进一步巩固技术壁垒。阶段性放量只是起点,而非终点。
在算力基础设施这样一个长期赛道中,真正重要的不是单一年份的数字,而是方向是否正确、节奏是否清晰。
摩尔线程,正逐步给出了属于它自己的答案。


登录后才可以发布评论哦
打开小程序可以发布评论哦