IT之家 08-07
通义千问Qwen3-4B-2507双料更新:手机能轻松跑,体积小、性能强
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

IT 之家 8 月 7 日消息,通义千问 Qwen 昨日(8 月 6 日)发布公告,宣布,推出 Qwen3-4B-Instruct-2507 和 Qwen3-4B-Thinking-2507 两个模型,大幅提升性能。

官方表示,SML(Small Language Models)对 Agentic AI 的发展极具价值,"2507" 版本的 Qwen3-4B 模型,体积小,性能强,对手机等端侧硬件部署尤为友好。

IT 之家援引博文介绍,在非推理(non-thinking)领域,Qwen3-4B-Instruct-2507 显著提升通用能力,目标成为更全能的端侧利器。

该模型掌握更多语言和长尾知识,上下文理解扩展至 256K,小模型也能处理长文本。该模型通用能力超越了闭源的小尺寸模型 GPT-4.1-nano,性能接近等规模的 Qwen3-30B-A3B(non-thinking)。

官方表示该模型更像一位高效的 " 执行专家 ",遵循指令、迅速响应,更适合用于内容创作、工具调用等。

在推理(thinking)领域,Qwen3-4B-Thinking-2507 大幅提升了推理能力,AIME25 高达 81.3 分。Qwen3-4B-Thinking-2507 的推理表现可媲美中等模型 Qwen3-30B-Thinking,在聚焦数学能力的 AIME25 测评中,以 4B 参数量斩获惊人的 81.3 分的好成绩。

官方表示该模型像一位严谨的 " 学术专家 ",面对复杂问题逐步推理,完成任务更深入可靠。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

通义千问 it之家 数学
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论