雷锋网 昨天
国内推理 GPU 独角兽曦望再获超 10 亿元融资,重构 AI 推理
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

4 月 20 日,国内全栈自研 AI 推理 GPU 企业曦望(Sunrise)宣布完成新一轮超 10 亿元人民币融资。这是 2026 年 AI 产业全面迈入 " 推理落地、智能体普及 " 时代后,国内 GPU 赛道诞生的最大单笔融资之一。至此,分拆独立仅一年多的曦望已累计完成七轮融资,总融资额约 40 亿元,成为国内首家估值超百亿的纯推理 GPU 独角兽。

本轮融资资金将主要用于新一代 S3 推理 GPU 的规模化量产交付、全栈软件生态建设,以及 S4/S5 后续芯片的研发迭代。

 

智能体元年,推理算力成最大产业瓶颈

2026 年被行业公认为 "AI 智能体元年 "。随着大模型从 " 会聊天 " 进化为 " 会思考、会执行 " 的数字员工,推理需求迎来爆发式增长。英伟达 GTC 2026 大会正式宣告 AI 产业全面迈入 " 推理落地、智能体普及 " 的新时代,将 " 每瓦 Token 吞吐量 " 定义为 AI 时代的核心竞争力。这与曦望自创立之初就锁定的核心战场高度契合。

"AI 算力基建的重心已彻底切换。" 曦望董事长徐冰表示,"2026 年 AI 推理计算需求将达到训练需求的 4-5 倍,推理算力租赁价格半年涨幅近 40%。"

不同于行业主流的 " 训推一体 " 路线,曦望从成立第一天起就坚定 All-in 推理赛道,以用户真实的 Token 成本、单位能耗和服务稳定性为芯片设计核心。目前公司已推进三代推理 GPU 迭代、数万颗 GPU 量产落地,实现了从芯片研发、产品量产到解决方案交付的完整闭环,并保持 " 芯片均实现一次性流片成功、流片后性能符合设计预期 " 的行业一流标准。

启望 S3:为 Agentic AI 重构的推理原生架构

2026 年 1 月,曦望正式发布新一代旗舰产品启望 S3 推理 GPU。这是国内首款搭载 LPDDR6 且兼容 LPDDR5X 内存的推理 GPU,它没有盲目照搬高端训练 GPU 的 HBM 显存路线,而是基于 Agent 推理的本质需求,从 AI Core 计算架构到内存 IO 系统进行了全链路重构。

以 OpenClaw 为代表的智能体推理," 感知—规划—执行—反馈 " 高频循环,带来了对 KV-cache 密集访问的全新计算负载。而通用 GPU 面向训练优化,推理实际算力利用率往往远低于峰值——推理侧的效率瓶颈已不再是 " 算力不够 ",而是 " 算力用不满 "。

这正是 S3 所押注的结构性机会:放弃训练能力,专为大模型推理做原生深度定制。通过裁剪训练态所需的模块,将节省出的晶体管与功耗预算集中投向推理,让单位面积有效算力效率提升 5 倍以上。

计算层:专为推理而生的 AI Core 架构升级

S3 通过计算层的深度定制,解决了通用 GPU" 算力用不满 " 的核心痛点,推理性能较上一代 S2 提升 5 倍,目标实现 Token 成本下降 90%。

1.   逼近物理极限的算子利用率

大语言模型推理中,GEMM 与 Attention 算子占总计算量的 90% 以上,但受限于通用架构的设计约束,这两项核心算子的实际利用率通常远低于理论峰值。S3 将这 GEMM 和 Flash Attention 两项核心算子的利用率分别推至约 99% 与 98%,标称算力几乎都转化为有效吞吐,同样硬件投入可服务更多并发请求。

2.   Agent 原生的指令集与微架构

采用 128-bit 指令集 + 支持 3D 指令,指令密度领先传统 SIMT 架构;独立线程调度精准匹配智能体复杂控制流,消除条件跳转带来的流水线代价;通过 Block cluster 和 Broadcast 等技术实现片上数据复用,减少对外带宽依赖,大幅提升 Agent 多轮推理效率。

3.   FP4 全链路低精度,吞吐 3-4 倍跃升

原生支持 FP16 至 FP4 全链路低精度运算,在 DeepSeek V3/R1 等主流模型上实现接近无损的 FP4 推理,吞吐量较 FP16 提升 3-4 倍,直接转化为客户侧的毛利空间和价格弹性。

 

系统层:三大接口技术破解智能体核心瓶颈

S3 创新性地集成了三大先进高速接口技术,从内存和 IO 两个推理时代最核心的瓶颈入手,解决了智能体三大核心瓶颈。

1.   LPDDR6 内存接口技术,解决智能体的 " 显存生死线 " 问题

大模型推理的一个核心特征是,在高并发、长上下文的主流云端推理场景中,KV Cache 的显存占比可超过 80%,且随并发用户数线性增长。S3 采用的 LPDDR6 方案,在提供足够推理带宽的同时,将显存容量上限大幅提高,且功耗降低 50%,匹配推理场景 " 大容量、高性价比、低功耗 " 的核心需求。同时,LPDDR6 与 LPDDR5x 兼容的设计,让 S3 可以推出不同显存规格的产品版本,覆盖从边缘到云端的各类推理场景,无需重新设计芯片。

2.   高速 SerDes+SUE 融合互联技术,解决智能体的 " 多模型协同瓶颈 "

曦望践行 " 软件定义互联 " 的设计思路,对推理场景下的互联架构进行了深度优化。从超节点协议、片上互联、片间互联、交换设备、高速通信软件栈协同设计,实现 TCO 与性能兼顾的推理互联系统。

Agent 时代的到来,对推理集群的互联性能提出了前所未有的要求——一个 Agent 请求会触发数十次推理调用,涉及多模型协同与海量 KV Cache 流转,如果互联带宽不足、协议割裂、延迟太高,整个系统的性能会出现超线性下降,集群规模越大,性能损失越严重。

S3 创新性地在片上原生融合了 Scale-Up 超节点与 Scale-Out 的双模互联底座。在超节点通信域,S3 搭载基于以太网的超节点互联引擎,支持 load/store 内存语义与 UVA 统一编址,任意两卡间一跳直达,为 AllReduce/AlltoAll 等集合通信提供硬件级加速;S3 选择基于以太网的超节点方案,具备双重优势:既可利旧复用标准以太网交换机节省组网成本,又可无缝接入支持超低延迟能力的增强型交换机,将端到端延迟压缩至百纳秒级,性能逼近专有互联协议。基于超节点和 DeepEP 实现的 MoE 超大模型推理系统,可以很大程度掩盖 LPDDR 相较于 HBM 的带宽劣势。另外,S3 在片上集成了 RDMA 通信引擎,专为 PD 分离架构下的超长上下文 KV Cache 传输进行优化,实现跨节点 KV Cache 的零拷贝、高吞吐传输,突破分离式架构的内存墙瓶颈。在组网上 S3 支持 32/64/128/256 弹性扩展能力,为不同算力密度的推理场景提供灵活选择。

3.   PCIe Gen6 接口技术,解决智能体的 " 资源碎片化 " 问题

云原生推理时代,超长上下文已成为大模型标配能力,千亿参数模型在处理数万 Token 序列时,单请求 KV Cache 占用可达数百 GB 甚至 TB 级,传统 PCIe 带宽瓶颈成为制约 KV Cache 高效管理的沉重枷锁。S3 搭载的 PCIe Gen6 接口,带宽较 Gen5 翻倍,可同时满载多路高速网卡与 NVMe 存储集群,满足云原生推理的高并发数据吞吐需求;通过 PCIe Gen6 的高带宽让 CPU DRAM 真正成为 S3 显存的扩展池。可构建起显存 -DRAM-NVMe 三层异构 KV Cache 架构:热数据驻留显存保证低延迟的访问,温数据通过 PCIe Gen6 扩展至 CPU DRAM 实现容量倍增,冷数据则下沉至 NVMe SSD 持久化存储,解决智能体的资源碎片化问题。

" 推理原生 " 带来普惠算力基础设施

从产业周期看,训练侧格局已相对固化,而推理侧正随 Agentic AI 放量进入指数级增长通道——多家机构预测,未来五年推理算力市场规模将超越训练侧数倍,其中 Agent 类负载将贡献最主要的增量。

曦望 S3 同时具备三个难以共存的要素:推理原生的架构前瞻性、实现 98 – 99% 算子利用率的顶尖工程能力、以及完整的生态适配能力。

"S3 不是简单的性能升级,而是一次对 AI 推理成本曲线的重构。" 徐冰表示," 我们的目标是将推理成本降至‘百万 Token 一分钱’,让 AI 像水电一样成为普惠基础设施。"

资本助力推理赛道进入加速期

本轮融资由多家产业方战投、地方国资及头部财务机构共同参与。

杭州资本表示:" 本次投资是杭州资本紧扣杭州‘ 296X ’先进制造业集群建设战略、深耕人工智能万亿级产业赛道的重要布局。曦望‘ All-in 推理’的战略选择具备行业前瞻性,其在技术创新和产品商业化方面的能力,是我们决定投资的重要原因。作为长期资本,我们更看重企业在关键技术方向上的持续投入与落地能力。"

普华资本表示," 曦望是国内少数真正理解推理场景、并能提供全栈自主可控解决方案的企业。我们看好公司 ' 不做训推一体跟随者,只做推理赛道领跑者 ' 的战略选择。"

聚集顶尖人才,打造中国 AI 工业化算力底座

曦望团队规模已增长至 400 人,研发人员占比超 80%,汇聚了来自英伟达、AMD、华为海思等国内外顶尖芯片企业的核心人才,硕士及以上学历占比超 80%。团队融合了芯片设计、高性能计算、AI 算法、软硬产品的跨行业人才。

2026 年,曦望将围绕 " 落地、兑现、增长 " 核心原则,全力推进 S3 芯片量产交付,完成与国内外主流大模型、多模态模型和 Agent 框架的全面适配。同时,公司已完成 S4 高性能推理 GPU 和 S5 安全可控推理 GPU 的技术路线规划,持续加码近存计算、光电共封等前沿技术探索。

未来,曦望将继续坚守 " 让 AI 推理便宜、稳定、随处可用 " 的核心目标,为中国 AI 发展铸造坚实的算力底座。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai gpu 融资 芯片 独角兽
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论