智东西 06-30
李彦宏出手!百度大模型终于开源
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

智东西

作者 | 程茜

编辑 | 云鹏

智东西 6 月 30 日消息,百度正式开源文心大模型 4.5 系列模型!

此次百度一口气开源了 10 款模型,涵盖 47B、3B 激活参数的混合专家(MoE)模型,0.3B 参数的稠密型模型等,并实现预训练权重和推理代码的完全开源。

Hugging Face 上的文心大模型 4.5 系列模型开源列表

目前,文心大模型 4.5 开源系列已可在飞桨星河社区、Hugging Face 等平台下载部署使用,同时开源模型 API 服务也可在百度智能云千帆大模型平台使用。

自此,百度成为国内继腾讯、阿里、字节之后的又一家开源大厂,这也是百度面向大模型进入应用爆发黄金时期的最新举措。

早在今年 2 月,百度就已预告了文心大模型 4.5 系列的推出计划,并明确将于 6 月 30 日起正式开源。不过百度这次的开源列表没有其升级版文心大模型 4.5 Turbo 系列。

Hugging Face:https://huggingface.co/baidu/models

飞桨星河社区:

https://aistudio.baidu.com/modelsoverview

GitHub:https://github.com/PaddlePaddle/ERNIE

技术报告:

https://yiyan.baidu.com/blog/posts/ernie4.5

一、开发者热议,点名文心大模型 4.5 Turbo 开源

Reddit 上的开发者认为,百度此次开源的模型中小参数的版本对内存受限的配置是不错的选择,他还认为 300B 可以和 DeepSeek V3 671B 战斗,21B 可以与阿里 Qwen 30B 战斗。

也有开发者指出,百度此次开源的模型中,28B 模型在基础文本能力上增加了视觉功能很酷。

开发者也在期待百度文心大模型 4.5 Turbo 的开源:

二、原生多模态基础大模型,多项评测超 Qwen3、DeepSeek-V3

文心大模型 4.5 于 3 月 16 日发布,是百度自研新一代原生多模态基础大模型,在多个测试集上的测评表现已经超过 GPT-4o。

其图片理解涵盖照片、电影截图、网络梗图、漫画、图标等多种形态,也能理解音视频中的场景、画面、人物等特征,并且在生成名人、物品等方面更具真实性。

文心 4.5 系列模型与 Qwen3、DeepSeek-V3 基准测试比较

百度官方公众号提到,文心 4.5 系列模型均使用飞桨深度学习框架进行高效训练、推理和部署。在大语言模型的预训练中,模型 FLOPs 利用率(MFU)达到 47%。实验结果显示,该系列模型在多个文本和多模态基准测试中达到 SOTA 水平,在指令遵循、世界知识记忆、视觉理解和多模态推理任务上效果突出。模型权重按照 Apache 2.0 协议开源,支持开展学术研究和产业应用。此外,基于飞桨提供开源的产业级开发套件,广泛兼容多种芯片,降低后训练和部署门槛。

对于原生多模态大模型,3 月初,百度创始人、CEO 李彦宏在人民网发表的署名文章就提到:" 原生多模态大模型,打破之前先训练单模态模型再拼接的方式,通过统一架构实现文本、图像、音频、视频等多模态数据的 ‌ 原生级融合,实现对复杂世界的统一理解,这是迈向通用人工智能(AGI)的重要一步。"

三、文心大模型 4.5 背后,三大关键创新

文心大模型 4.5 系列背后的关键技术创新包括:

1、多模态异构 MoE 预训练:其模型基于文本和视觉模态进行联合训练,可捕捉多模态信息的细微差别,并提升文本理解与生成、图像理解以及跨模态推理等任务的性能。

为了实现这一目标,避免一种模态阻碍另一种模态的学习,百度研究人员设计了一种异构 MoE 结构,并引入了模态隔离路由,采用了路由器正交损失和多模态标记平衡损失。这些架构选择可以确保两种模态都得到有效表示,从而在训练过程中实现相互强化。

2、可扩展、高效的基础设施:百度提出异构混合并行和分层负载均衡策略,以实现 ERNIE 4.5 模型的高效训练。研究人员通过采用节点内专家并行、内存高效的流水线调度、FP8 混合精度训练和细粒度重计算方法,实现了预训练吞吐量提升。

在推理方面,研究人员提出多专家并行协作方法和卷积码量化算法,以实现 4 位 /2 位无损量化。此外还引入具有动态角色切换的 PD 分解,提升 ERNIE 4.5 MoE 模型的推理性能。基于 PaddlePaddle 构建的 ERNIE 4.5 可在各种硬件平台上提供高性能推理。

3、针对特定模态的后训练:为了满足实际应用的多样化需求,百度针对特定模态对预训练模型的变体进行了微调。其大模型针对通用语言理解和生成进行了优化。

VLM 专注于视觉语言理解,并支持思考和非思考模式,每个模型都结合使用了监督微调(SFT)、直接偏好优化(DPO)或统一偏好优化(UPO)的改进强化学习方法进行后训练。

在视觉 - 语言模型的微调阶段,视觉与语言的深度融合对模型在理解、推理和生成等复杂任务中的表现起着决定性的作用。为了提升模型在多模态任务上的泛化能力和适应性,研究人员围绕图像理解、任务定向微调和多模态思路推理三大核心能力,进行了系统性的数据构建和训练策略优化。此外,其利用可验证奖励强化学习(RLVR)进一步提升模型对齐和性能。

结语:全球大模型产业竞争加剧,百度拥抱开源

针对百度此次开源,南加州大学计算机科学副教授、三星年度人工智能研究员 Sean Ren 在接受外媒采访时提到:" 每当一个大型实验室开源一个强大的模型时,它都会提高整个行业的标准。百度的举动给 OpenAI 和 Anthropic 等闭源模型的提供商带来了压力,迫使它们证明 API 和高价的合理性。"

作为国内最先入局大模型研发的巨头之一,百度已经形成了文心大模型 4.0 Turbo、性能强劲的轻量模型 ERNIE Speed Pro 和 ERNIE Lite Pro 到当下的文心大模型 4.5、文心大模型 X1,以及升级版文心大模型 4.5 Turbo 等模型系列,其模型数量稳步递增,模型类型愈发多元。到 2024 年,文心大模型的日均调用量达到 16.5 亿,而 2023 年同期这一数字仅为 5000 万次,增长达到 33 倍。

Sean Ren 认为虽然大多数消费者并不关心模型代码是否开源,但他们确实在意更低的成本、更好的性能以及对其语言或地区的支持。这些好处通常来自于开源模型,它为开发人员和研究人员提供了更大的自由度,可以更快地进行迭代、定制和部署。"

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

开源 百度 阿里
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论