华为技术有限公司 30 日宣布开源盘古 70 亿参数的稠密模型、盘古 Pro MoE 720 亿参数的混合专家模型和基于昇腾的模型推理技术。
根据公告,盘古 Pro MoE 72B 模型权重、基础推理代码和基于昇腾的超大规模 MoE 模型推理代码,已正式上线开源平台。盘古 7B 相关模型权重与推理代码将于近期上线开源平台。
图片来源:每经记者 李星 摄
华为公告称,此举是华为践行昇腾生态战略的又一关键举措,推动大模型技术的研究与创新发展,加速推进人工智能在千行百业的应用与价值创造。
另一方面,6 月 30 日,百度也宣布正式开源文心大模型 4.5 系列模型,涵盖 47B、3B 激活参数的混合专家(MoE)模型,与 0.3B 参数的稠密型模型等 10 款模型,并实现预训练权重和推理代码的完全开源。
目前,文心大模型 4.5 开源系列可在飞桨星河社区、HuggingFace 等平台下载部署使用,同时开源模型 API 服务也可在百度智能云千帆大模型平台使用。
值得注意的是,在百度、华为之前,阿里早已通过一系列有竞争力的开源大模型、魔搭社区布局 AI 开源生态,腾讯混元此前也开源了混合推理 MoE 模型 Hunyuan-A13B 以及 3D 生成模型等。
每日经济新闻
登录后才可以发布评论哦
打开小程序可以发布评论哦