百度文心大模型开源,如期而至。
就在今天,百度官宣文心大模型 4.5 系列正式开源,还同步提供 API 服务。
此番,百度一次性推出 10 款开源模型,涵盖从47B参数的混合专家(MoE)模型到轻量级0.3B稠密型模型,覆盖文本、多模态等多种任务需求。
△文心大模型 4.5 系列开源模型
值得关注的是,文心大模型 4.5 开源系列遵照的是Apache 2.0 协议。
10 款模型同步开源
此次百度一次性推出 10 款文心大模型 4.5 系列开源模型,在独立自研模型数量占比、模型类型数量、参数丰富度、开源宽松度与可靠性等关键维度上,都拿出了诚意。
文心大模型 4.5 开源系列,还针对 MoE 架构提出了一种创新性的多模态异构模型结构。
该结构适用于从大语言模型向多模态模型的持续预训练范式,在保持甚至提升文本任务性能的基础上,显著增强了多模态理解能力,其优越的性能主要得益于多模态混合专家模型预训练、高效训练推理框架和针对模态的后训练等关键技术点。
此外,文心大模型 4.5 开源系列均使用飞桨深度学习框架进行高效训练、推理和部署。
在大语言模型的预训练中,模型 FLOPs 利用率(MFU)达到47%。
△文心 4.5 预训练模型在主流基准测试中表现优异
实验结果显示,其系列模型在多个文本和多模态基准测试中达到SOTA水平,尤其在指令遵循、世界知识记忆、视觉理解和多模态推理任务上效果突出。
在文本模型方面,文心大模型 4.5 开源系列在多个主流基准评测中超越DeepSeek-V3、Qwen3等模型。
△文心 4.5-300B-A47B 模型在主流基准测试中表现优异
在多模态模型方面,文心大模型 4.5 开源系列基于强大的视觉感知能力和丰富的视觉常识,实现了思考与非思考统一,在视觉常识、多模态推理、视觉感知等主流的多模态大模型评测中优于闭源的OpenAI o1。
此外,在轻量模型上,文心 4.5-21B-A3B-Base 文本模型效果与同量级的Qwen3相当,文心 4.5-VL-28B-A3B 多模态模型在同量级开源模型中达到 SOTA,甚至能和更大参数模型Qwen2.5-VL-32B掰掰手腕。
△多模态后训练模型在多个多模态基准测试中达到 SOTA 开发者福利:开箱即用的工具链
据了解,文心大模型 4.5 开源系列权重按照Apache 2.0 协议开源,支持开展学术研究和产业应用。
另外基于飞桨提供开源的产业级开发套件,由于其广泛兼容多种芯片,可以显著降低模型的后训练和部署门槛。
而作为国内最早投入 AI 研发的企业之一,百度在算力、框架、模型到应用的四层布局构建了 AI 全栈技术优势。
其中,飞桨作为中国首个自主研发、功能丰富、开源开放的产业级深度学习平台,基于多年飞桨开源技术与生态系统积累,本次文心大模型 4.5 开源系列同步升级发布文心大模型开发套件ERNIEKit和大模型高效部署套件FastDeploy,为文心大模型 4.5 系列及开发者提供开箱即用的工具和全流程支持。
此外值得一提的是,文心大模型 4.5 系列开源后,百度也实现了框架层与模型层的" 双层开源 "。
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!
— 完 —
量子位 AI 主题策划正在征集中!欢迎参与专题365 行 AI 落地方案,一千零一个 AI 应用,或与我们分享你在寻找的 AI 产品,或发现的AI 新动向。
也欢迎你加入量子位每日 AI 交流群,一起来畅聊 AI 吧~
一键关注 点亮星标
科技前沿进展每日见
登录后才可以发布评论哦
打开小程序可以发布评论哦