手机中国 前天
阿里通义千问Qwen3-Max亮相 性能跻身全球前三 多项测试表现卓越
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

【CNMO 科技新闻】9 月 24 日,在杭州开幕的 2025 云栖大会上,阿里巴巴集团旗下通义千问重磅发布了旗舰级大模型 Qwen3-Max。该模型在多项关键基准测试中表现卓越,综合性能宣布超过 GPT-5、Claude Opus 4 等国际顶尖模型,正式跻身全球大模型前三阵营,标志着中国在大模型技术领域取得重大突破。

Qwen3-Max 为通义千问家族中最大、最强的基础模型。该模型预训练数据量达 36T tokens,总参数超过万亿,拥有极强的 Coding 编程能力和 Agent 工具调用能力。在大模型用 Coding 解决真实世界问题的 SWE-Bench Verified 测试中,Instruct 版本斩获 69.6 分,位列全球第一梯队;在聚焦 Agent 工具调用能力的 Tau2-Bench 测试中,Qwen3-Max 取得突破性的 74.8 分,超过 Claude Opus4 和 DeepSeek-V3.1。

Qwen3-Max-Instrurct 测评分数

Qwen3-Max 的推理增强版本 Qwen3-Max-Thinking-Heavy 也展现出非凡性能,结合工具调用和并行推理技术,其推理能力创下新高,尤其在聚焦数学推理的 AIME 25 和 HMMT 测试中,均达到突破性的满分 100 分,为国内首次。Qwen3-Max 推理模型之所以能够取得优异成绩,原因在于大模型在解数学题时懂得调动工具,能够写代码做题,同时,增加测试时的计算资源,也让模型表现变得更好。

Qwen3-Max-Thinking-Heavy 测评分数

大模型预训练原理 Scaling Law(规模化法则)认为,持续地增长数据和参数规模,是通向 AGI 的可能路径之一。由于自然数据的数量有限,当前有部分学者认为预训练的 Scaling Law 即将逼近上限,而 Qwen3-Max 的性能突破显示,继续增大数据、模型参数,依然能锻造出更强的模型,给予了大家更多的信心。目前,通义千问系列模型已经实现从 0.5B 到超万亿的全尺寸覆盖,包含三百多个大模型,可满足不同场景的需求。

即日起,用户可在通义千问 QwenChat 上免费体验 Qwen3-Max,也可通过阿里云百炼平台调用 API 服务。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

通义千问 阿里云 阿里巴巴集团 编程 数学
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论