全天候科技 17小时前
华为大模型也加入开源大军了
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

作者 | 黄昱

编辑 | 刘宝丹

自四年前盘古大模型首次亮相以来,AI 大模型行业风云变幻,不少 AI 大模型厂商加入开源大军。一直坚持闭源大模型的华为,如今也终于决定打开盘古的大门了。

6 月 30 日,华为正式宣布开源盘古 70 亿参数的稠密模型、盘古 Pro MoE 720 亿参数的混合专家模型和基于昇腾的模型推理技术。

这是华为首次开源盘古大模型。

华为方面表示,此举是华为践行昇腾生态战略的又一关键举措,推动大模型技术的研究与创新发展,加速推进人工智能在千行百业的应用与价值创造。

据悉,盘古 Pro MoE 72B 模型权重、基础推理代码,基于昇腾的超大规模 MoE 模型推理代码,已正式上线开源平台;盘古 7B 相关模型权重与推理代码将于近期上线开源平台。

华为首次开源大模型选择了两款可应用广泛的模型。

70 亿参数的稠密模型采用双系统框架,参数量适中、性能均衡、部署门槛较低,具备 " 快思考 " 和 " 慢思考 " 能力,可根据任务复杂度自动切换推理模式。

同时,该模型专为在昇腾 NPU 上优化部署,兼顾推理速度与推理深度,在 AIME、GPQA 等复杂推理基准测试中,超越 Qwen3-8B、GLM4-9B 等同量级模型,适用于智能客服、知识库等场景。

盘古 Pro MoE 720 亿参数的混合专家模型通过在专家选择阶段引入分组机制,确保了跨设备的计算负载均衡,不仅解决了传统 MoE 架构中专家负载不均衡的问题,还显著提升了模型的训练效率和推理性能,更适合处理相对复杂的任务。

AI 大模型浪潮掀起以来," 大模型开源 or 闭源 " 一直是业界的热门议题。大模型开源的本质是以开放换生态,以生态养技术,相对于闭源而言,可以借助全球开发者的力量加速大模型的研发迭代速度。

开源与闭源也可以理解为是 " 短期盈利 " 与 " 长期生态 " 的权衡:闭源像 " 专利药 ",靠技术壁垒快速赚钱,但可能被后来者颠覆;开源像 " 通用药 ",靠规模效应和生态黏性构建护城河,但需要长期投入。

今年春节期间 DeepSeek 的横空出世,彻底颠覆了整个 AI 行业,也成功彰显了开源的价值。

在 DeepSeek 的推动下,AI 应用爆发,海内外公司纷纷在自家产品中接入 DeepSeek,直接冲击了 OpenAI 等 AI 大模型厂商在人工智能领域的市场地位。

基于此,像 OpenAI、百度这样的坚定的闭源路线支持者,不得不在 " 技术护城河 " 与 " 商业价值 " 之间做出选择,也决定拥抱开源。

2 月 14 日,百度宣布,文心大模型 4.5 系列即将面世,且 6 月 30 日起全面开源。不约而同地,Open AI 首席执行官山姆 · 奥特曼也在 2 月 13 日称,未来将重新制定开源战略。

百度创始人李彦宏在 2 月 11 日的 World Governments Summit 2025 峰会上表示:" 开源能让你更吸睛。" 他解释,AI、生成 AI 现在还处在创新萌芽期,快速传播能加速普及,吸引更多人试水,形成良性循环。

山姆 · 奥特曼则表态称,OpenAI 在开源 AI 软件方面 " 一直站在历史的错误一边 "。他还透露,虽然并非所有员工都同意其观点,但 OpenAI 内部正讨论公开 AI 模型的权重等事宜。

有 AI 业内人士指出,未来," 开源生态 + 闭源核心 " 的混合模式可能成为主流 —— 既通过开源吸引开发者共建生态,又通过闭源技术保持商业竞争力,实现短期盈利与长期布局的平衡。

在此背景下,华为部分开源盘古大模型也是大势所趋。

此外,华为此次还开源了基于昇腾的模型推理技术,昇腾这一层级对应的则是华为瞄准的 AI 算力市场。

众所周知,华为的野心在于要做 AI 时代的 " 黑土地 ",其昇腾生态战略是华为围绕昇腾 AI 计算平台构建的全方位生态发展策略,旨在推动 AI 技术普及应用、促进产业创新、实现各方共赢,涵盖技术创新、生态构建、开源开放、人才培养等多个关键层面。

开源盘古大模型,有利于吸引开发者基于盘古大模型开发行业应用,形成 " 模型 - 应用 - 硬件 " 的昇腾生态闭环。

在 6 月 20 日召开的华为开发者大会 2025 上,华为常务董事、华为云计算 CEO 张平安在发布盘古大模型 5.5 的同时,还正式宣布基于 CloudMatrix 384 超节点的新一代昇腾 AI 云服务全面上线,为大模型应用提供澎湃算力。

据悉,华为云新一代昇腾 AI 云服务基于 CloudMatrix 384 超节点,首创将 384 颗昇腾 NPU 和 192 颗鲲鹏 CPU 通过全新高速网络 MatrixLink 全对等互联,形成一台超级 "AI 服务器 ",单卡推理吞吐量跃升到 2300 Tokens/s,与非超节点相比提升近 4 倍。

值得一提的是,超节点架构能更好地支持混合多专家 MoE 大模型的推理,可以实现 " 一卡一专家 ",一个超节点可以支持 384 个专家并行推理,极大提升效率;同时,超节点还可以支持 " 一卡一算子任务 ",灵活分配资源,提升任务并行处理,减少等待,将算力有效使用率(MFU)提升 50% 以上。

盘古大模型基于昇腾云的全栈软硬件训练,因此,华为开源盘古大模型的本质,也是在为昇腾生态引流。

2025 年已是开源模型快速进步的一年,华为如今加入开源大军,无疑将让其在全球 AI 竞争中占据战略主动。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

华为 ai 百度 人工智能 开源
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论