没想到,文小言接入推理模型的大更新背后,百度还藏了一手 " 质变 " 级技术大招???
Talk is cheap,直接来看 Demo:
士别三日,文小言不仅能讲重庆话了,还是成了哄娃的一把好手,被花式打断照样应对如流:
实测下来,Demo 不虚。这个全新语音对话功能,确实更有人味儿了,还是能紧贴当下实事的那种——
只是让 Ta 推荐周末放松去处,Ta 自己就能主动结合当前 4、5 月份的现实时间,给出更加合理的建议。
划重点,这是免费的。现在你也一样可以打开手机里的文小言,直接体验这一全新升级的实时语音对话功能。
但!是!
如果单说语音体验,那还真不是这个 " 大招 " 的重点。关键是,这回百度还透露了更多技术细节。
我们仔细一看,还真是有意思了。
首先,上来就是一个行业首创:以上实时语音对话效果,由百度全新推出的端到端语音语言大模型实现,这是行业首个基于 Cross-Attention 的跨模态语音语言大模型。
有何不同?站在用户体验的角度来说,就是语音合成延迟更低,对话更真实有情感。
而更重要的一点是,这么个新模上线,文小言在语音问答场景中的调用成本,最高能降低 90%!直接打掉了工业级落地的门槛。
(再也不怕模型厂流量大到挂我服务 .jpg)
我们注意到,百度语音首席架构师贾磊,其实用到了 " 质变 " 这个词:
百度端到端语音语言大模型是有质变的,不是单纯把文本大模型用到语音领域。
语音场景有其独特之处。此前,大家没有充分挖掘这个应用场景的不同,还是按照把文本大模型用到语音场景的路线,把速度加快一下,工程优化一下。
我们的创新架构,让大模型在语音场景中的应用实现了极低成本,更有利于大模型普及。
就是说,这一次语音技术的更新,不仅仅是工程上的技巧,百度正在通过技术创新,打通大模型落地语音场景的工业级应用新范式。
行业首个基于 Cross-Attention 的端到端语音语言模型
话说到这了,咱们就来一起仔细扒一扒背后技术方案,看看究竟是怎么一回事。
先给大家划个重点:
熟悉大模型的小伙伴都知道,KV cache 能够加速自回归推理,但其在存储和访问上的开销,也会随着序列长度和模型规模增大而爆炸式增长。
因此在保证模型性能的前提下,降低 KV cache,对于大模型应用来说,是提升推理效率、降低成本的一大关键。
百度此次推出的基于 Cross-Attention 的端到端语音语言模型,重点就在于此。
具体来说,百度做了以下创新:
业内首创的基于 Cross-Attention 的跨模态语音语言大模型
Encoder 和语音识别过程融合,降低 KV 计算
Decoder 和语音合成模型融合
创新提出基于 Cross-Attention 的高效全查询注意力技术(EALLQA),降低 KV cache
我们一项一项展开来看。
基于 Cross-Attention 的跨模态语音语言大模型
整体上,这个端到端语音语言大模型是基于 Self-Attention 的文心预训练大模型,采用自蒸馏的方式进行后训练得到。训练数据为文本和语音合成数据的混合。整个模型采用 MoE 结构。
关键点在于,在端到端语音识别中,声学模型也是语言模型,因此在整合语音识别和大语言模型的过程中,能够通过将大语言模型中的 Encoder 和语音识别的过程融合共享,达到降低语音交互硬延迟的目的。
而在语音领域,Cross-Attention 天然具有跨模态优势:Decoder 会显式地将 Encoder 输出纳入注意力计算,使得 Decoder 在每一个解码步骤都能动态访问最相关的输入向量,从而充分地对齐和利用跨模态信息。
基于 Cross-Attention 的高效全查询注意力技术(EALLQA)
不过,Cross-Attention 的引入带来了另一个问题:MLA 的位置编码技术,在 Cross-Attention 中容易出现不稳定的现象。
为此,百度语音团队提出了高效全查询注意力技术(EALLQA):
采用创新的隐式 RNN 两级位置编码,训练时是在 128 空间上的 MHA,推理时是在模型各层共享的 512 空间上的 MQA(AllQA)。既充分利用了有限的训练资源,也极大地降低了推理成本。
从具体效果上来说,EALLQA 技术能使 KV cache 降至原来的几十分之一,并将 Cross-Attention 的最近上一个问题的 KV 计算降至原来的十分之一,极大降低了语音交互时用户的等待时间和模型推理成本。
降低成本的另一个关键,则是 Encoder 和语音识别系统的融合:对 Query 理解的模型较小,能极大减少 KV 计算。
流式逐字的 LLM 驱动的多情感语音合成
训练、推理成本的降低之外,端到端语音语言大模型还通过语音模型和语言模型的融合,实现了文体恰当、情感契合、自然流畅的合成音频的生成。
一方面,研发团队通过大规模文本 - 语音数据自监督预训练,构建语义 + 韵律的离散化特征空间,通过双层 GPT-like Transformer,实现了韵律、音色双 Prompt 控制机制。
另一方面,在此基础之上,研发团队推出了语音语言大模型与合成一体化流式逐字合成。
有别于传统语音合成的整句输出,流式逐字相当于一个字一个字地合成。在这个过程中,语言大模型能够指导语音模型去生成情感、停顿,识别多音字等等,实现更为拟人、自然的语音合成效果。
需要注意的是,人耳接收信息实际上是一个字一个字地接收,但对于 AI 而言,如果 1 个 token 接 1 个 token 的输出,就需要解决并发的问题,以使 MoE 架构最大程度发挥作用。
流式逐字合成要解决的核心问题,就是在适配人听力的基础上,实现高并发。
通过引入流式逐字合成,百度端到端语音语言大模型有效提升了语音交互的响应速度,同时降低了语音交互领域使用大模型成本。与大模型融合的 TTS 文体风格情绪控制,还可以根据文本输出自适配的情况,情感覆盖达到 17 种。
简单总结一下,百度的端到端语音语言大模型,一方面是重点解决了大模型应用于语音交互场景成本高、速度慢的问题。
另一方面,大语言模型带来的语义理解等能力,也解决了传统语音交互中,同音字识别、打断、真实情感等痛点。
贾磊透露,目前,整个端到端语音语言大模型在 L20 卡上即可部署,在满足语音交互硬延迟要求的情况下,双 L20 卡并发可以做到数百以上。
极低成本是关键
说了这么多,最主要的关键词其实就是:低成本。
在与贾磊的进一步交流中,他向我们强调了降低成本的重要性:
极低成本就意味着大规模工业化变得非常容易。
2025 年,大模型的核心并不在于展示什么新功能,而是能以多快速度真正应用到国计民生中去。
在不考虑计算资源的情况下,实时语音交互有其他路径可以实现,但 " 我们今天是第一个做到跨模态端到端极低成本解决语音问题的 "。
贾磊还表示,希望语音领域的这一突破创新能被行业更多地关注到。
我们想要把核心技术分享出去,告诉大家我们是怎么做的,以此推动整个领域的爆发。
事实上,不仅是百度,在包含语音的大模型能力对外输出上,国内外厂商都将价格视作突破口。
OpenAI 就专门从性价比出发,推出了 GPT-4o mini audio,希望以更低廉的价格打入语音应用市场。
2025 年,基础模型方面,模型厂商在推理模型上争相竞逐,而其带来的最直接的影响之一,是人们对于大模型应用加速爆发预期的持续升温。在这个过程中,我们可以看到,站在模型厂商的角度,更多的模型在被开源,更多的服务在免费开放,用户认知、关注的争夺之中,成本本身正在变得更加敏感。
更不用提成本即是大规模应用的关键:不仅是在模型厂商们的 APP 上,还要进一步走进手机、汽车……
正如 DeepSeek 在基础模型领域搅动池水,现在,百度也在语音领域迈出关键一步。
成本,正在成为当前阶段模型厂商获得主动权的重要突破口。
One More Thing
从文小言的语音交互架构图中还可以看到,它像是个语音版百度搜索。
正如文章开篇我们体验到的,文小言能结合当前的季节对用户问题给出更合理的回答。实际上,在语音功能中,文小言已经支持多垂类助手能力,包括天气、日历查询、单位换算、股价股票等信息查询内容,共计 38 个垂类。
还支持 DeepQA RAG 问答,包含百度查询等时效性问答内容,能结合检索结果,做到更精准的指令跟随;支持 DeepQA 非 RAG 问答,包含常识问答等非时效性问答内容。
" 有问题,问小言 " 的这个 " 问 " 字,确实是越来越接近人类原本的交互习惯了。
这实际也是产业趋势的一种映射——
之前都是大模型技术探索,需要不断适配才能落地产品、形成应用,最后被用户感知。
现在这是大模型技术和产品应用,几乎在同时对齐,技术推进的时候就瞄准了应用场景,应用场景也能催生更适合的技术,不是锤子找钉子,而是锤子钉子同时对齐。
大模型依然是 AI 世界的核心,但天下却正在变成应用为王的天下。
百度,或者说中国 AI 玩家,开始找到自己的节奏了。
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!
— 完 —
点亮星标
科技前沿进展每日见