快科技 2 月 16 日消息,没有预热、没有铺垫,阿里巴巴在除夕夜甩出 " 王炸 "。
据 " 阿里云 " 公众号介绍,今日,阿里巴巴开源全新一代大模型千问 Qwen3.5-Plus,登顶全球最强开源模型。

该模型总参数为 3970 亿,激活仅 170 亿,以小胜大,性能超过万亿参数的 Qwen3-Max 模型。
模型部署显存占用降低 60%,推理效率大幅提升,最大推理吞吐量可提升至 19 倍。
目前,千问 APP、PC 端已接入 Qwen3.5-Plus 模型,开发者可在魔搭社区和 HuggingFace 下载新模型,Qwen3.5-Plus API 价格每百万 Token 低至 0.8 元。
与前几代的千问大语言模型不同,千问 3.5 实现了从纯文本模型到原生多模态模型的代际跃迁。
千问 3.5 基于视觉和文本混合 token 上预训练,并大幅新增中英文、多语言、STEM 和推理等数据。
据介绍,千问 3.5 在 MMLU-Pro 认知能力评测中得分 87.8 分,超越 GPT-5.2;在博士级难题 GPQA 测评中斩获 88.4 分,高于 Claude 4.5;在指令遵循 IFBench 以 76.5 分刷新所有模型纪录。
而在通用 Agent 评测 BFCL-V4、搜索 Agent 评测 Browsecomp 等基准中,千问 3.5 表现均超越 Gemini 3 Pro。
此外,在多模态推理(MathVison)、通用视觉问答 VQA(RealWorldQA)、文本识别和文件理解(CC_OCR)、空间智能(RefCOCO-avg)、视频理解(MLVU)等众多权威评测中,千问 3.5 均斩获最佳性能。
在视频理解方面,千问 3.5 支持长达 2 小时(1M token 上下文)的视频直接输入,适用于长视频内容分析与摘要生成。
同时,千问 3.5 还实现了视觉理解与代码能力的原生融合,结合图搜和生图工具,可将手绘界面草图直接转为可用的前端代码,一张截图就能定位并修复 UI 问题,让视觉编程真正成为生产力工具。



登录后才可以发布评论哦
打开小程序可以发布评论哦