IT之家 昨天
重磅!阿里发布Qwen3-Omni-Flash:全模态交互迎来“拟人化”奇点
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

IT 之家 12 月 11 日消息,阿里 Qwen 团队于 2025 年 12 月 9 日发布博文,宣布推出新一代原生全模态大模型 Qwen3-Omni-Flash-2025-12-01,该模型在 Qwen3-Omni 基础上进行了全面升级,支持文本、图像、音视频的无缝输入与实时流式输出。

IT 之家援引博文介绍,该模型不仅能无缝处理文本、图像、音频和视频等多种输入形式,还能通过实时流式响应,同步生成高质量的文本与自然语音。

作为 Qwen3-Omni 的全面升级版,新模型在保持高效响应的同时,着重解决了此前多模态交互中存在的痛点,致力于实现 " 声形意合,令出智随 " 的极致体验。

针对口语化场景中常见的 " 降智 " 问题,Qwen3-Omni-Flash 大幅增强了对音视频指令的理解与执行能力。新模型显著提升了多轮对话的稳定性与连贯性,彻底告别了以往语音生成中语速拖沓、机械呆板的现象。

现在,模型能根据文本内容自适应调节语速、停顿与韵律,其语音表现的自然度与拟人化程度已逼近真人水平,为用户带来更流畅的对话体验。

此次升级最引人注目的功能是系统提示(System Prompt)控制能力的飞跃。Qwen 团队全面开放了 System Prompt 自定义权限,用户可以精细调控模型的行为模式 —— 无论是设定 " 甜妹 "、" 御姐 " 或 " 日系 " 等特定人设风格,还是调整口语化表达偏好及回复长度,模型均能精准执行。

此外,模型的多语言能力也更加可靠,支持 119 种文本语言交互、19 种语音识别语言及 10 种语音合成语言,确保在跨语言场景下响应准确一致。

在客观性能指标上,Qwen3-Omni-Flash-2025-12-01 展现了强大的统治力。数据显示,该模型在逻辑推理任务(ZebraLogic)上得分提升 5.6,在代码生成(LiveCodeBench-v6)上提升 9.3,在多学科视觉问答(MMMU)上提升 4.7。这些数据表明,新模型不仅能更准确地 " 看懂 " 图像与视频内容,还在复杂指令遵循与深度逻辑分析上迈上了新台阶。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

阿里 it之家 准确 语音识别 语音合成
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论