手机中国 06-30
华为正式宣布:开源盘古7B稠密和72B混合专家模型
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

【CNMO 科技消息】6 月 30 日,华为正式宣布开源盘古 70 亿参数的稠密模型、盘古 Pro MoE 720 亿参数的混合专家模型和基于昇腾的模型推理技术。华为表示,此举是华为践行昇腾生态战略的又一关键举措,将推动大模型技术的研究与创新发展,加速推进人工智能在千行百业的应用与价值创造。

CNMO 获悉,盘古 ProMoE72B 模型权重、基础推理代码和基于昇腾的超大规模 MoE 模型推理代码已正式上线开源平台。盘古 7B 相关模型权重与推理代码将于近期上线开源平台。

华为曾披露,盘古 Pro MoE 大模型,在参数量仅为 720 亿、激活 160 亿参数量的情况下,通过动态激活专家网络的创新设计,实现了以小打大的优异性能,甚至拥有不亚于千亿级模型的性能表现。在 SuperCLUE 最新公布的 2025 年 5 月排行榜上,位居千亿参数量以内大模型排行并列国内第一。

此外,有华为技术专家称,盘古 72B 是兼顾性能与推理成本的黄金尺寸,最适合行业用户用 AI 改造业务。

据 CNMO 了解,在近期的华为开发者大会上,华为云发布了盘古大模型 5.5,对 NLP(自然语言处理)、CV(计算机视觉)、多模态、预测、科学计算五大基础模型进行升级。同时,基于 CloudMatrix 384 超节点的新一代昇腾 AI 云服务全面上线。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

华为 开源 ai 计算机视觉
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论