铅笔道 09-24
阿里发布Qwen3-Max:性能超GPT5,跻身全球前三
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

9 月 24 日,2025 云栖大会开幕,阿里通义旗舰模型 Qwen3-Max 重磅亮相,性能超过 GPT5、Claude Opus 4 等,跻身全球前三。Qwen3-Max 包括指令(Instruct)和推理(Thinking)两大版本,其预览版已在 Chatbot Arena 排行榜上位列第三,正式版性可望再度实现突破。

Qwen3-Max 为通义千问家族中最大、最强的基础模型。该模型预训练数据量达 36T tokens,总参数超过万亿,拥有极强的 Coding 编程能力和 Agent 工具调用能力。在大模型用 Coding 解决真实世界问题的 SWE-Bench Verified 测试中,Instruct 版本斩获 69.6 分,位列全球第一梯队;在聚焦 Agent 工具调用能力的 Tau2-Bench 测试中,Qwen3-Max 取得突破性的 74.8 分,超过 Claude Opus4 和 DeepSeek-V3.1。

【图说】:Qwen3-Max-Instrurct 测评分数

Qwen3-Max 的推理增强版本 Qwen3-Max-Thinking-Heavy 也展现出非凡性能,结合工具调用和并行推理技术,其推理能力创下新高,尤其在聚焦数学推理的 AIME 25 和 HMMT 测试中,均达到突破性的满分 100 分,为国内首次。Qwen3-Max 推理模型之所以能够取得优异成绩,原因在于大模型在解数学题时懂得调动工具,能够写代码做题,同时,增加测试时的计算资源,也让模型表现变得更好。

【图说】:Qwen3-Max-Thinking-Heavy 测评分数

大模型预训练原理 Scaling Law(规模化法则)认为,持续地增长数据和参数规模,是通向 AGI 的可能路径之一。由于自然数据的数量有限,当前有部分学者认为预训练的 Scaling Law 即将逼近上限,而 Qwen3-Max 的性能突破显示,继续增大数据、模型参数,依然能锻造出更强的模型,给予了大家更多的信心。目前,通义千问系列模型已经实现从 0.5B 到超万亿的全尺寸覆盖,包含三百多个大模型,可满足不同场景的需求。

即日起,用户可在通义千问 QwenChat 上免费体验 Qwen3-Max,也可通过阿里云百炼平台调用 API 服务。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

阿里 阿里云 通义千问 云栖大会
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论