IT之家 10-18
百灵万亿参数模型「Ling-1T」上架华为云,支持专属资源部署
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

IT 之家 10 月 18 日消息,华为中国今日发文宣布,蚂蚁集团万亿参数大模型 Ling-1T 上架华为云大模型即服务 MaaS 平台。Ling-1T 是百灵大模型系列的首款旗舰级 " 非思考 " 模型,拥有万亿参数,并已开源。华为中国表示,此次模型上架支持专属资源部署,可全面释放 Ling-1T 模型能力。

▲ 图源:华为中国官方公众号,后同

据介绍,万亿参数大模型 Ling-1T 每个 token 可激活约 50B 参数。模型基于先进的 Ling 2.0 架构,在超过 20T tokens 的高质量、高推理浓度语料上完成预训练,并支持 128K 的上下文窗口

通过 " 中训练 + 后训练 " 演进式思维链(Evo-CoT)技术,Ling-1T 在多项国际权威的复杂推理基准测试中(如代码生成、软件开发、专业数学及逻辑推理等)取得了业界顶尖(SOTA)表现,Ling-1T 在有限输出 token 条件下,于多项复杂推理基准中取得 SOTA 表现,展示出模型兼顾推理效率与准确性。

IT 之家从华为中国获悉,Ling-1T 模型与 CloudMatrix384 超节点在架构、性能和部署上存在高度互补。Ling-1T 作为高效推理的模型,可利用 CloudMatrix384 超节点为大规模 MoE 模型提供的加速和优化,在实际应用中发挥出更强的性能,具体优势如下:

MoE 架构与全对等互联:Ling-1T 模型采用 MoE(混合专家)架构。MoE 模型的核心在于稀疏激活机制,分布式部署时会产生大量 All-to-All 通信需求,而传统网络架构难以高效处理。CloudMatrix384 超节点通过全对等互连架构,高度契合 MoE 模型的通信密集型需求,有效避免通信瓶颈。

专家并行与动态负载均衡:Ling-1T 模型由 256 个专家模块组成,模型推理时需激活约 50B 参数,推理过程会产生大量网络通信。CloudMatrix384 超节点通过超高速互联网络与基于内存语义的零拷贝数据聚合技术,有效突破大规模专家并行计算中的通信瓶颈,为超大规模语言模型推理提供高可靠、低延迟的端到端算力支持,从而在超节点上实现 Ling-1T 的高吞吐量和低延迟推理任务。

目前,华为云大模型即服务 MaaS 平台已预置 DeepSeek、Qwen3、Kimi 等业界主流开源大模型,并基于昇腾 AI 云服务完成深度适配与优化,模型部署和运行在云端,无需自行处理复杂的硬件和部署问题,用户可通过 API 接口可快速调用 LLM、多模态等模型服务。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

华为 it之家 云服务 华为云 开源
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论