IT之家 06-30
华为宣布开源盘古 7B 稠密和 72B 混合专家模型
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

IT 之家 6 月 30 日消息,华为今日正式宣布开源盘古 70 亿参数的稠密模型、盘古 Pro MoE 720 亿参数的混合专家模型和基于昇腾的模型推理技术

华为表示:" 此举是华为践行昇腾生态战略的又一关键举措,推动大模型技术的研究与创新发展,加速推进人工智能在千行百业的应用与价值创造。"

盘古 Pro MoE 72B 模型权重、基础推理代码,已正式上线开源平台。基于昇腾的超大规模 MoE 模型推理代码,已正式上线开源平台。盘古 7B 相关模型权重与推理代码将于近期上线开源平台。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

开源 华为 人工智能 it之家
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论