经济观察网讯 7 月 5 日,针对盘古 Pro MoE 模型被质疑套壳阿里通义千问 Qwen-2.5 的争议,华为诺亚方舟实验室发布声明称,该模型是基于昇腾硬件平台开发、训练的基础大模型,非基于其他厂商模型增量训练,并强调其创新了全球首个面向昇腾硬件的分组混合专家(MoGE)架构,解决分布式训练负载均衡难题,提升训练效率。
此前,GitHub 研究指出盘古 Pro MoE 与 Qwen-2.5 的注意力参数分布高度相似(平均相关性 0.927),代码文件含阿里版权声明,引发 " 非独立开发 " 质疑。华为回应称,部分基础组件代码参考了业界开源实践,严格遵循开源协议并标注版权,符合开源协作精神。
目前,涉事 GitHub 库已删除,阿里方面暂未回应。业内指出,此次争议暴露 AI 大模型开源定义模糊、协议规则待完善等问题,如何界定开源模型边界、推动健康有序发展仍是行业关键课题。据悉,盘古大模型已落地 30 余行业、400 余场景,覆盖政务、金融、制造等领域。
登录后才可以发布评论哦
打开小程序可以发布评论哦