雷锋网 09-09
国产算力公司「各自为战」,曙光如何打通协作壁垒?
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

是什么契机,让国内耳熟能详的算力相关公司都济济一堂?

在 2025 世界智能产业博览会的 AI 计算开放架构暨新品发布会上,国产算力友商们拥有了某种向心力。而串联起他们的核心纽带,正是中科曙光发布的国内首个 AI 计算开放架构。

此次发布中,中科曙光协同 AI 芯片、AI 整机、大模型等 20 多家产业链上下游企业,共同推出 AI 超集群系统。在开放多项技术能力的同时,也宣布依托国家先进计算产业创新中心,启动 "AI 计算开放架构联合实验室 " 的建设。

算力厂商们的集体亮相,背后也藏着大家对当前国内算力市场困局的共同焦虑:行业过去 " 强竞争、弱合作 ",导致国内基础设施市场虽然火热,但不同厂商的服务器、存储设备、算力调度平台大多采用专有接口与协议,缺乏统一技术标准,从而难以形成合力,突破瓶颈。

那么,对当下的国内算力生态而言,曙光的这步尝试究竟价值何在?为了推动这场突破,他们又做了哪些准备?

算力产业链环节细分,内部却是 " 一盘散沙 "

在外部生态护城河难以攻克之时,内部算力厂商却仍各自为战、缺乏协同,这是国内算力市场的一大瓶颈。

而这种局面的出现,一大原因是 GPU 领域内大量不同的品牌、厂商,彼此之间不同的算力密度、互联方式以及生态体系差别,筑起的异构壁垒。

2023 年前后,异构问题的解决被越来越多厂商提上日程。然而,目前的尝试并不尽如人意——

在技术上,不同芯片算子库不同,运行时的技术适配差异会增大整合难度;同时,异构的协调需要对 GPU 性能进行预测及拆分,甚至涉及硬件协调。

在生态上,中科曙光总裁助理、智能计算产品事业部总经理杜夏威向雷峰网介绍,行业已习惯在国际主流生态的框架下运行,现有惯性难以打破;且产业迭代速度极快、技术更新频繁之下,AI 各个产业板块发展都很活跃,这导致 " 齿轮 " 之间并没有严丝合缝协同。

这些问题没有解决,目前的异构混训就依然会对效率造成莫大牺牲——有业内人士指出,随着 AI 加速卡数量的增加和不同芯片类型加入,混训的鲁棒性和稳定性都会变差。杜夏威观察到 " 人们对打破壁垒的未知恐惧普遍存在 ",但市场对厂商迈出这一步的需求,已迫在眉睫。

杜夏威指出,云计算时代,客户的起步往往较云计算提供商晚,市场教育周期可能较长;而在 AI 大模型时代,客户接受度极高,快速增长的海量需求反推数据中心的运营革新,市场正倒逼厂商啃下异构集群统一标准的 " 硬骨头 "。

虽然有观点认为,异构需求只是国产芯片提升性能过程中的过渡性阶段,智算中心最终还是会回归到同构的基础架构;然而,在未来算力市场发展的短期内,异构需求只会有增无减:

一方面,数据中心的国产化比例要求逐渐严格,以前国产卡比例在数据中心内可能只占两成,但今年窗口指导等相关政策颁布后,未来可能有所升高。

另一方面,部分使用先进算力加国产化算力的组合集群的大模型客户,也明确拥有对混训能力的要求。

有见及此,2025 智博会上,中科曙光协同 AI 芯片、AI 整机、大模型等 20 多家产业链上下游企业,共同发布了国内首个 AI 计算开放架构,并基于该架构推出 AI 超集群系统。

这套超集群单机柜支持 96 张加速卡,可提供超过 100P 的 AI 算力,最高能够实现百万卡大规模扩展。它还能支持深度开发用户迭代自有程序,同时帮助传统行业用户快速复用 AI 模型、整合业务。

与专有封闭系统相比,这套系统可适配支持多品牌 GPU 加速卡,兼容 CUDA 等主流软件生态,为用户提供更多选择;同时也大幅降低硬件成本和软件开发适配成本,使得前期投资压力较小。

并且,曙光也携手众多产业链企业开放七项核心技术,包括 CPU 与 AI 加速器高性能接口协议、加速器互连协议,液冷基础设施层面的规范,以及软件栈的整合经验等。

" 这个 AI 超集群最大的特点,就是多元化和包容化 ",杜夏威说道。在他看来,异构并非局限地理解为把多个品牌揉在一个系统下,而是寻找大家在整个系统化工程中擅长的部分,尝试通过深度合作来形成对产业的良好支撑。

而曙光能成为开放架构号召人的角色,正源自其多年来的实验积累。

中科曙光高级副总裁李斌说道,过去十年,中科曙光建设了 20 多个大规模算力集群,累计部署超 50 万张异构加速卡。从大型机到集群,从小规模算力到超大规模算力系统,曙光在产业链各层级的沉淀,令其足以起串联上下游。

这种串联,一方面能让各个环节的算力公司不再 " 重复造轮子 ",减少为多种不同架构重复研发的无效过程;另一方面,也能在当前国内算力供需匹配不足的情况下,有效整合起分散的算力资源

不过,让算力资源有效运转的条件之一,是要保障集群能长久稳定地基础运营。为此,曙光做的准备远不止这些。

做好模型训练中的 " 脏活累活 "

智博会上,中科曙光展台正中间立着 AI 超集群产品,其存储、液冷、生态等板块的细分展区分布四周,将其簇拥其中。

据介绍,这套 AI 超集群千卡集群大模型训推性能达到业界主流水平的 2.3 倍,其完善的工具链和软件栈能把开发效率提升 4 倍,人力和时间投入降低 70%。

GPU 时代对软硬件的协同优化提出更高要求,杜夏威说道,曙光的这套架构,也涵盖了资源运管调度、下层并行化等策略,以及专家并行、PD 分离等技术,确保底层算力高效发挥。同时,也对底层通信库、算子库进行优化,能做到以软件栈的形态交付服务。

而在存算方面,曙光也提出了 " 以存提算 "、存算一体,通过 Burstbuffer 数据缓存的使用,结合超级隧道降低交互,保障数据 IO 以及传输有自己高效的专属通道,让 GPU 算力效能增加了 55%。

此外,那些在大模型时代发展早期被有意回避的 " 脏活累活 " ——提高稳定性、减少故障率、缩短故障恢复时间——反而成了曙光新品的亮眼名片

在曙光的这套新集群中,其平均无故障时间(MTBF)提高了 2.1 倍,平均故障修复时间(MTTR)降低到原来的 47% 等。" 把不影响原有业务运转的故障替换技术,逐步释放到整个 AI 超集群中 ",是曙光下一步发展的目标。

高温,也是大集群稳定运行的一大克星。一般来说,芯片工作温度每升高 10 度,失效率就会翻倍。曙光数创 CTO 张鹏算了这样一笔账:目前,曙光通过液冷能做到 PUE 1.04,相当于每带走 100 个单位的热量,只需额外花费 4 个单位的能量;而以往风冷的能量比效率只是 1:1,相比起来,液冷的能耗节省非常明显。

不过,在冷板、浸没、喷淋三大液冷路线中,冷板虽先行落地成为主流,但面对目前已达 1000w 级 GPU 运行时的 " 热浪 ",已有些捉襟见肘。

要让芯片算力得以充分释放,下一扇需要开启的门是 " 浸没 "。而曙光已经率先握住了这把钥匙。

中科曙光在展会现场展出的相变浸没液冷设备,令雷峰网印象深刻——

透过玻璃视窗,可以看到 8 块 GPU 和 2 块 CPU 浸泡在无色液体中。细密的气泡从芯片上覆盖而过,旋即升腾、折向右侧,形成稳定而精确的 " 蒸汽轨道 "。

据现场工作人员介绍,这些特殊液体的沸腾温度仅在 50 度左右,远低于芯片运行时 80-90 度的工作温度。于是,在持续的沸腾中,热量便被汽化的小气泡裹挟带走、随后消散。

曙光展出的相变浸没液冷设备,摄:雷峰网李想

做大型机和集群起家的曙光,从 2011 年就开始布局静默式冷板液冷,在 2015 年量产 TC40 冷板式高密度服务器。尽管如此,张鹏还是感慨,数据中心需求迅猛增长的这几年,已经对液冷发展提出近乎苛刻的高要求:

现在的智算中心比起传统通用数据中心,负载变化率很快——在训练和推理中,一个回车按下的毫秒里,所有需求就要达到满载。与此同时,单机柜功率密度在短短几年内从 60 千瓦,飙升至 200 千瓦甚至 300 千瓦。

曙光的这场发布,是一次团结国内算力生态的初尝试,具体效果有待时间检验,但至少,在 " 苹果生态 " 为王的算力市场里,他们已经打响构建 " 安卓生态 " 的第一枪。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 中科曙光 曙光 芯片 gpu
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论