量子位 07-30
Qwen全面升级非思考模型,3B激活、256K长文、性能直逼GPT-4o
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_font3.html

 

Happy QwensWeek 果然名不虚传。

Qwen 的基础模型接连开源,现在全新非思考模型 Qwen3-30B-A3B-Instruct-2507 也闪电上线。

仅激活3B参数,就能取得媲美 Gemini 2.5-Flash(non-thinking)、GPT-4o 等顶尖闭源模型的超强性能。

相较前代的非思考模型 Qwen3-30B-A3B Non-Thinking,这次 " 小更新 " 使模型的通用能力方面得到了关键提升。

其中,模型的推理能力(AIME25)提升了 183.8%,而对其能力(Arena-Hard v2)则提升了 178.2%。此外,模型的长文本处理能力也由前代的 128K 提升至 256K。

可以说,这款新模型就像 Qwen 团队说的:"更轻、更强、更好用!"

这么一波操作下来,网友都觉得 " 太疯狂 ":哥,你慢点!

小更新、大不同

正如开头提到的,相较于前代非思考模型,Qwen3-30B-A3B-Instruct-2507 在推理能力和对齐能力方面实现了大幅跃升,长文本处理能力也从 128K 提升至 256K。

除此之外,模型在多语言长尾知识覆盖、主观与开放任务的文本质量、代码生成、数学计算、工具使用等通用能力上也表现出全面进步,展现出更强的通用性与实用性。

作为 Qwen3 系列 Qwen3-30B-A3B的高质量指令微调版本,其不再有 <think> 块,完全以非思考模式运行。

相较于基础模型,Qwen3-30B-A3B-Instruct-2507 更注重稳态输出与一致性,适合稳定生产环境部署。具备更强的对齐性、指令遵循能力和长文本处理能力,适合直接服务于更复杂、更真实的人机交互应用。

在网友的内部基准测试中,直观地体现了 Qwen3-30B-A3B-Instruct-2507 的上述优势:

面对从海量文档中提取支持某一主题的全部证据这一任务,Qwen3-30B-A3B-Instruct-2507 不仅超越了网友此前使用过的所有模型,还有效解决了诸如对话轮次耗尽、工具调用失败、信息遗漏与误检等常见问题。

相比之下,其他模型往往会在处理长文本时出现大面积内容丢失,而 Qwen3-30B-A3B-Instruct-2507 在极端情况下也仅偶尔遗漏少量文档,展现出惊人的稳定性和精度

这一性能的背后,正是 Qwen3-30B-A3B-Instruct-2507 在长文本处理能力方面的核心优势。得益于其支持 256K 的上下文窗口以及更稳健的长程依赖建模能力,模型能够 " 读懂并记住 " 庞大的输入信息,保持语义连贯、细节清晰。

同时,它还具备更强的推理能力与检索调用策略,从而在复杂任务中实现高效、精准的信息整合与输出,真正体现了其在大规模文档理解和多步推理场景下的实用价值。

Qwen3 家族

在最近的一周多时间里,Qwen 一口气放出了好几款模型:

07.30:Qwen3-30B-A3B-Instruct-2507 ( Qwen3-30B-A3B 非思考模式的更新版本 )

07.25:Qwen3-235B-A22B-Thinking-2507 ( Qwen3-235B-A22B 思考模式的更新版本 )

07.22:Qwen3-Coder-480B-A35B-Instruct ( Qwen3-Coder )

07.21:Qwen3-235B-A22B-Instruct-2507 ( Qwen3-235B-A22B 非思考模式的更新版本 )

在网友们惊叹阿里速度的同时,Qwen 系列的命名乍一看也让人眼花缭乱。

不过,如果你仔细观察,就会发现 Qwen 的命名朴素得像一份显卡驱动版本号,毫无感情,只有信息。

以今天的主角 Qwen3-30B-A3B-Instruct-2507 为例,这个命名表达的是:

Qwen3:第三代千问模型

30B:总参数量为 30B(Billion= 十亿)

A3B:激活参数为 3B

Instruct-2507:指令微调版本,发布时间为 2025 年 7 月。

如果我们回顾整个 Qwen3(Qwen3-2504)系列,基础模型又根据参数量和激活参数量分为两条主线:

旗舰模型 Qwen3-235B-A22B:235B 总参数,22B 激活参数。

较小的 MoE 模型 Qwen3-30B-A3B:30B 总参数,3B 激活参数(另有预训练版本 Qwen3-30B-A3B-Base)

针对不同的理场景和硬件资源,Qwen3 系列还包含了不同大小的密集(Dense)模型(从 0.6B 到 32B)。

此外,为应对不同的场景,Qwen3 还推出了不同的量化策略版本,如 FP8、Int4、AWQ、GGUF、GPTQ 等。

可以说,只要能细化,Qwen3 就不用你动手(颗粒度这一块,拿捏!)

所以,与其说 Qwen3 是一个模型系列,不如说它是一个 " 模型矩阵 ":规格全、命名清、版本多。

横跨参数规模、精度格式、训练类型几乎所有维度,适配了从研究到应用、从大厂集群到边缘部署的各种需求。

一句话总结:你只管问,Qwen3 已经准备好了。

参考链接:

[ 1 ] https://x.com/Alibaba_Qwen/status/1950227114793586867

[ 2 ] https://www.reddit.com/r/LocalLLaMA/comments/1mcg4qt/qwen330ba3b_small_update/

[ 3 ] https://modelscope.cn/models/Qwen/Qwen3-30B-A3B-Instruct-2507

[ 4 ] https://huggingface.co/Qwen/Qwen3-30B-A3B-Instruct-2507

一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!

—    —

量子位「AI 100」产品榜单启动招募!

快来提名你心目里的百强产品~

点亮星标

科技前沿进展每日见

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

数学 开源
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论