听潮TI 02-14
文心大模型开源开放,释放出什么信号?
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

听潮 TI

2025 年 02 月 14 日 22:09:32

0 人参与0 评论

DeepSeek 火爆出圈以来,其引发的蝴蝶效应还在加剧。

昨天(2 月 13 日),百度官宣,文心一言将于 4 月 1 日 0 时起全面免费,所有 PC 端和 App 端用户均可体验文心系列最新模型,以及超长文档处理、专业检索增强、高级 AI 绘画、多语种对话等功能。

此外,文心一言即将在官网、App 端上线的深度搜索功能,也将从 4 月 1 日起免费开放使用。

图 / 百度官微

再到今天(2 月 14 日),百度再次宣布,未来几个月,百度将陆续推出文心大模型 4.5 系列,并于 6 月 30 日起正式开源。

值得注意的是,同样是在这两天,从 OpenAI 到谷歌,也加大了大模型的开放力度,宣布了旗下大模型产品免费开放的消息。

OpenAI 也有望走向开源。据悉,目前 OpenAI 内部正讨论公开 AI 模型的权重等事宜。

AI 巨头步调一致走向开源开放,释放出了一个强烈信号:

大模型狂奔两年后,大模型技术在 B、C 两端的落地范式,涌现出了新变化,对大模型厂商提出了更高的要求——他们不仅要走在大模型技术的最前沿,也要在大模型应用爆发前夜,加速探索出大模型落地的降本路径,率先抢跑。

百度文心大模型的开源开放,正是基于上述两点。

一边,过去两年的大模型浪潮里,百度是投入力度最大、技术迭代最快、B 端产业落地和 C 端应用探索最广、最深的 AI 企业之一。

截至 2024 年 11 月,文心一言的用户规模为 4.3 亿,文心大模型日均调用量超过 15 亿次,较 2023 年增长了超过 30 倍。

另一边,从模型推理到模型训练,百度已经通过技术创新实现了成本的有效降低。

而当百度、OpenAI、谷歌等 AI 巨头率先转向,当更大限度的技术、生态开放成为产业共识,AI 技术普惠,正加速照进现实。

01 从 To C 到 TO B,开源开放为什么成了大模型产业的必经之路?

引领此轮大模型开放开源潮的,不只百度一家。

2 月 6 日,OpenAI 宣布 ChatGPT Search 向所有人开放,用户无需注册,来到 OpenAI 官网首页就可以直接使用搜索功能。同一天里,谷歌也宣布,向所有人开放其最新的 Gemini 2.0 模型,包括 Flash、Pro Experimental 和 Flash-Lite 三个版本。

再到昨天,百度宣布免费开放后,OpenAI 快速跟进。 萨姆 · 奥尔特曼在社交媒体 X 上宣布,OpenAI 新的 GPT-5 大模型将对 ChatGPT 免费用户无限量开放,不过更高智能版本的 GPT-5 仍需付费使用。

巨头们统一摆出开放姿态,原因不难理解。

过去两个多月里,DeepSeek 投向大模型产业的石子不断泛起涟漪。DeepSeek-v3 呈现出的大模型训练上的低成本、DeepSeek-R1 在模型推理上的低成本,以及 DeepSeek 应用所呈现出来的在思维逻辑、中文、编程等方面的惊艳能力,快速助推其成为春节前后最受全球瞩目的 AI 公司。

而其展现出来的,以低算力成本复现先进模型的可能性、DeepSeek 应用的爆发,某种程度上印证了一点:

大模型产业,当前已经进入到了需要开源开放的新阶段。

客观来看,开源和闭源,这两条不同的技术路线并非完全对立,只是在产业发展的不同时期,会呈现出不同的特征。

比如早期的模型开源更像是营销,Meta 旗下的 Llama 选择了半开源,只开源了部分参数和配置文件,但这一定程度上反而会影响模型的可验证性和可信度。

但到了今年,大模型在度过初步发展阶段后,正加速进入 AI 应用爆发阶段,这一阶段,开源路线显然更利于大模型技术传播,提高采用率。

正如李彦宏所说," 归根结底,最重要的是应用,而不是使用哪种大模型。不管它是开源还是闭源,更重要的是可以在应用层创造什么样的价值。"

比如在 B 端市场,《2024 中国企业 AI 大模型应用现状调研报告》指出,AI 大模型在企业中的渗透仍处于初期阶段,不过有 55% 已经部署了大模型的企业和机构认为,已经看到了大模型带来的清晰业务价值。

问题在于,对很多企业尤其是中小企业而言,大模型落地过程中,成本、技术、人才和行业方案,仍然是几个主要挑战,他们对 AI 大模型的投入,依然保持着积极且谨慎的矛盾态度。

IDC 在《中国中小企业生成式 AI 及大模型应用调查》中也提到,采用大型模型和 AI 技术所需要的在硬件、软件、培训和数据处理等方面的成本,也是众多中小企业面临的一重挑战。

再聚焦到 C 端市场来看,尽管业界还未出现一款真正的超级应用,但用户对大模型应用的使用习惯正加速养成,全面开放,也是大势所趋。

也就是说,全面开源开放,才能更好地满足 B 端企业客户、C 端用户源源不断增长的市场需求。

我们看到,当风向转变时,百度、OpenAI 等大模型头部玩家,敏锐捕捉到了信号,并率先以更积极的姿态开源、开放。

以百度为例,除了在 C 端全面开放文心一言,在 B 端,百度在大模型生态上也在逐步加大开放力度。

2 月 3 日,百度智能云官宣,DeepSeek-R1 及 DeepSeek-V3 两款模型已经上架其千帆 ModelBuilder 平台。

值得注意的是,百度将这两款模型的价格打了下来——客户在千帆 ModelBuilder 平台上调用这两款模型的价格,仅为 DeepSeek-V3 官方刊例价的 3 折、DeepSeek-R1 官方刊例价的 5 折,同时提供限时免费服务。

另一边,过去一年里,文心旗舰大模型的降价幅度也超过了 90%,并且主力模型也全面免费,最大限度降低了企业创新试错的成本。

当然,更重要的是,针对接下来即将推出的最新的文心大模型 4.5 系列,百度也将在 6 月 30 日起正式开源——它将以更积极的姿态面对市场,携手推动产业发展。

听潮 TI 也注意到,从目前释放出的信息来看,百度的开放姿态,要比 OpenAI 更加积极—— OpenAI 考虑开源的,是此前已经发布的 AI 模型,而百度的开源动作,则是聚焦在接下来即将发布的最新系列模型。

这意味着,面向接下来的大模型 AI 应用爆发潮,百度已经在提前抢跑。

02 以技术创新为基,百度跑通了大模型技术的降本路径

" 回顾过去几百年,大多数创新都与降低成本有关,不仅是在人工智能领域,甚至不仅仅是在 IT 行业。" 2 月 11 日,在迪拜举行的 World Governments Summi2025 峰会上,李彦宏如此说道。

在他看来,如果能将成本降低一定数量、一定百分比,意味着生产率也会提高相同的百分比," 我认为,这几乎就是创新的本质。而今天,创新的速度比以前快得多。"

百度创始人李彦宏,图 / 百度官微

李彦宏此番表态背后,如今的百度,已经跑通了大模型技术的降本路径。而背后的支撑,正是技术创新。

具体来看,从大模型训练到推理,百度目前的降本效果都较为显著。

先来看训练成本。百度自研的昆仑芯芯片和万卡集群的建成,为大模型训练提供算力支持,百舸 · AI 异构计算平台,则可以承载大量数据的处理、超大模型的训练、高并发业务的推理,为 AI 任务加速,是更底层的基础设施。

其中,昆仑芯的性能优势在于,其能在更少的计算资源下运行大规模模型,进而使得大模型的推理和训练所需的计算量减少,直接降低算力成本;

大规模集群的优势则在于,其可以通过任务并行调度、弹性算力管理等方式,提高计算资源利用率,避免算力闲置,提高单任务的计算效率,降低整体算力成本。 近日,百度智能云成功点亮了昆仑芯三代万卡集群,其是国内首个正式点亮的自研万卡集群,百度接下来计划将进一步扩展至 3 万卡。

图 / 百度官网

此外,在百舸平台的能力支撑下,百度也实现了对大规模集群的高效部署管理。

比如其将带宽的有效性提升到了 90% 以上、通过创新性散热方案有效降低了模型训练的能耗、通过不断优化并完善模型的分布式训练策略,将训练主流开源模型的集群 MFU(GPU 资源利用率)提升到了 58%。

再来看模型的推理成本。有业内人士分析称,这一次文心一言全面开放,背后最大的原因之一,或许正是推理成本不断降低。

" 百度在模型推理部署方面有比较大的优势,尤其是在飞桨深度学习框架的支持下,其中并行推理、量化推理等都是飞桨在大模型推理上的自研技术。飞桨和文心的联合优化,可以实现推理性能提升,推理成本降低。" 他进一步分析道。

具体来看,百度是中国唯一拥有 " 芯片 - 框架 - 模型 - 应用 " 这四层 AI 技术全栈架构的 AI 企业,这意味着,百度有着中国最 " 厚实且灵活 " 的技术底座,能够实现端到端优化,不仅大幅提升了模型训练和推理的效率,还进一步降低了综合成本。

举个例子,DeepSeek-R1 和 DeepSeek-V3 在千帆 ModelBuilder 平台更低的推理价格,正是是基于技术创新——百度智能云在推理引擎性能优化技术、推理服务工程架构创新,以及推理服务全链路安全保障上的深度融合,是把价格打下来的重要原因。

基于上述几点来看,百度的降本路径其实尤为清晰——基于自研技术创新,提升大模型在训练、推理过程中的资源利用率。

我们也看到,遵循这一大模型技术的降本路径,萝卜快跑,也在加速以更低成本落地。

去年 5 月,萝卜快跑发布了全球首个支持 L4 级自动驾驶的大模型,进一步提升了自动驾驶技术的安全性和泛化性,用大模型的力量让自动驾驶 " 更快上路 ",处理复杂交通场景的能力,完全不输 Waymo。

再聚焦到萝卜快跑第六代无人车,其全面应用了 " 百度 Apollo ADFM 大模型 + 硬件产品 + 安全架构 " 的方案,通过 10 重安全冗余方案、6 重 MRC 安全策略确保车辆稳定可靠,安全水平甚至接近国产大飞机 C919。

值得注意的是,这一过程中,萝卜快跑无人车的成本,已经达到或接近业界最低水平。其第六代无人车,比特斯计划在 2026 年量产的 cybercab 成本还要低,甚至是 Waymo 的 1/7。

这某种程度上也加速了萝卜快跑的落地进程。

截至目前,萝卜快跑已经在北上广深等十多个城市,以及中国香港开启道路测试。百度此前透露,萝卜快跑累计订单已经超过 800 万单。李彦宏也提到,萝卜快跑的 L4 级自动驾驶安全测试里程累计已超过 1.3 亿公里,出险率仅为人类司机的 1/14/。

与此同时,萝卜快跑在中国市场更复杂的城市路况下积累的测试里程,也为其开拓中东、东南亚等新兴市场埋下了伏笔。

03 应用爆发年,百度的下一步怎么走?

" 我们生活在一个非常激动人心的时代。在过去,当我们谈论摩尔定律时说,每 18 个月性能会翻倍、成本会减半;但今天,当我们谈论大语言模型时,可以说每 12 个月,推理成本就可以降低 90% 以上。这比我们过去几十年经历的计算机革命要快得多。" 2 月 11 日的那场峰会上,李彦宏如此说道。

事实上,回顾过去一年里大模型赛道的动态,从价格战到大模型厂商的路径分化,到 kimi 的出圈,到 AI Agent 的爆发之势,再到 DeepSeek 的异军突起,以及其所带来的大模型开源开放潮,不难发现:

当下,大模型产业正加速迈入新的周期——技术迭代的速度越来越快了、技术创新的未知想象空间更广阔了、大模型技术降本的速度更快了、大模型应用的爆发点更近了。

这同时也意味着,从市场竞争的视角来看,大模型厂商接下来的比拼维度,也将更加丰富。

他们既要拼技术创新、拼生态赋能、也要拼开放力度和降本能力、还要拼应用。

不过,参考百度的降本路径,长远来看,最核心的比拼,依然聚焦在一点——谁能持续走在大模型技术创新的最前沿。

我们注意到,这也是百度的长期思路。

" 创新是不能被计划的。你不知道创新何时何地到来,你所能做的是,营造一个有利于创新的环境。" 李彦宏如此表示。

这对应的是,尽管技术进步和技术创新在不断降本,百度接下来还是会在芯片、数据中心、云基础设施上持续大力投入,来打造出更好、更智能的下一代、下下一代模型。

比如百度还在不断丰富其大模型矩阵。

目前,文心大模型矩阵中,包括了 Ernie 4.0 Turbo 等旗舰大模型、Ernie Speed 等轻量模型,也包括基于基础模型生产的系列思考模型和场景模型,以满足不同应用的需求。

去年三季度,百度还推出了 Ernie Speed Pro 和 Ernie Lite Pro 两款增强版的轻量模型。

再到今年,从已经释放出的消息看,文心大模型 4.5 系列、5.0 系列也将发布。

另一方面,我们也看到,百度更加积极的开源开放姿态背后,其实继续延续了此前的理念——加速推动大模型在 B 端业务场景中的应用进程,以及在 C 端应用上的探索。

最后,如李彦宏所说," 也许,在某个时刻你会找到一条捷径,比如说只需 600 万美元就能训练出一个模型,但在此之前,你可能已经花费了数十亿美元,用来探索哪条路才是花费这 600 万美元的正确途径。"

对百度而言,用持续高压强式的技术投入营造创新环境,其实是一门 " 笨功夫 ",但好在这足够稳健、足够踏实,潜在的机会也更大。

一来,此前文心大模型的调用量就已经是国内最高,如今开源之后,其调用量预计将明显提升,进一步扩大文心大模型的使用范围;

二来,从大模型生态来看,百度过去已经基于开放姿态建立起了生态优势。

比如百度早在 2016 年就推出了开源的飞桨框架;百度的千帆大模型平台,也是当前业内接入模型数量最多的,支持国内外近百家主流模型。

由此可以预见,如今在更大力度推动大模型开源、开放后,在新一轮大模型竞争中,百度已经开始抢跑了。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

开源 百度 文心一言 谷歌 技术创新
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论