爱范儿 昨天
刚刚,阿里端出春节「硬菜」千问 3.5!我让它做了个拜年网页,结果出乎意料
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

除夕夜,春晚还没开始,AI 圈先炸了。

过去半个月,中文互联网上演了最魔幻的一幕。上亿人对着千问 APP 疯狂输出,只为薅那一杯免费奶茶。

30 亿真金白银砸下去,效果简单粗暴:登顶 App Store,日活 7352 万逼平豆包,6 天 1.2 亿单 AI 订单。阿里用一种最简单粗暴的方式,完成了大模型在 C 端的一次全民普及。

但互联网有一条铁律:靠补贴拉来的用户跑得比谁都快。当「一句话办事」的新鲜感褪去,如何让流量变留量?答案只能是更好的模型体验。

没有让我们等待多久,阿里刚刚正式发布并开源了 Qwen3.5 系列模型,并迅速在 chat.qwen.ai 平台完成部署。

页面显示有两款模型,分别为最新大语言模型的 Qwen3.5-Plus,以及定位为开源系列旗舰的 Qwen3.5-397B-A17B。两者均支持文本处理与多模态任务。

流水的榜单,铁打的千问

过去两年开源模型界流传着一个梗:「流水的榜单铁打的千问」。从 Qwen 2.5 到 Qwen 3.5 每一代发布基本都是发布即霸榜,以至于开发者圈子处处流传着那个传说——「源神启动」。

基准测试结果显示,Qwen 3.5 在多模态理解、复杂推理、编程、Agent 智能体等几大核心能力维度都是领先于同级开源模型,多项基准媲美 Gemini-3-pro 等闭源第一梯队。

同时以 4000 亿参数的 Qwen3.5-Plus 性能超过了万亿参数的 Qwen3-max 模型。小马拉大车,还能跑得比高铁快。这是怎么做到的?我们找到了几个关键要素:

混合注意力机制:实现算力动态分配,让模型学会「有详有略」地提升长文本效率

极致稀疏 MoE 架构:总参数 397B 激活仅 17B,是同等性能参数量最小的模型,也就是说仅需激活不到 5% 的参数,即可调动全量知识大幅降低推理成本

原生多 Token 预测:将逐字生成改为多步联合预测,实现推理速度翻倍

系统级稳定性优化:精准调控信息流,确保模型在超大规模训练中不崩盘、不跑偏

除了这些,Qwen3.5 和字节的豆包大模型 2.0 都在尝试解决同一个问题:让 AI 真正理解图像、文字和视频。

Qwen3.5 通过早期文本 - 视觉融合与扩展的视觉 /STEM/ 视频数据实现原生多模态,在相近规模下优于 Qwen3-VL。

Qwen3.5 通过异构基础设施实现高效的原生多模态训练:在视觉与语言组件上解耦并行策略,避免统一方案带来的低效。

利用稀疏激活实现跨模块计算重叠,在混合文本 - 图像 - 视频数据上相比纯文本基线达到近 100% 的训练吞吐。

向左滑动查看更多内容

在此基础上,原生 FP8 流水线对激活、MoE 路由与 GEMM 运算采用低精度,并通过运行时监控在敏感层保持 BF16,实现约 50% 的激活显存降低与超过 10% 的加速,并稳定扩展至数万亿 token。

最终做出来的效果是,Qwen3.5 支持图像与视频输入,上下文窗口扩展至 1M tokens,可直接处理长达 2 小时的视频内容,还能像人一样操作手机和电脑,完成跨应用的复杂任务。

当然,最让开发者心动的,永远是价格。Qwen3.5-Plus 的 API 价格每百万 Token 低至 0.8 元,同等性能下,价格仅相当于 Gemini-3-Pro 的 1/18。

这次跑分没输过,体验也没输过

话不多说,直接开测。我们先甩给它一张发票,提取内容轻松拿捏,准确无误。

上下滑动查看更多内容

接着加大难度,来个「找茬游戏」,让它圈出两张图的不同。虽然没有直接在图上画圈,但它精准地指出了所有不同之处。这眼神,确实可以。

GPT-4o 前阵子正式「退役」,于是我把一个梗图甩给了它,它不仅看懂了图,还读懂了背后的嘲讽和情绪。这种对「潜台词」的理解,才是多模态的真正门槛。

遗憾的是,Qwen3.5 Plus 的写作能力并未得到较大提升,虽然逻辑通顺,但 AI 味还是肉眼可见,转折生硬,缺乏人类写作者的灵气与细腻。

上下滑动查看更多内容

编程能力或许是 Qwen3.5 给我的最大惊喜。恰逢春节,先来一个春节烟花模拟器,代码一次跑通,不仅视觉元素齐备,连音效都配齐了。这已经不是简单的代码补全,而是完整的代码生成。

再来一个年兽闯关塔防游戏,鞭炮防御,红色减速,NPC 互动,Q 版画风也都轻松拿捏。

我们也顺手做了一个给各位拜年的网页,提前祝大家新年快乐。

不吹不黑,就体感而言,Qwen 3.5 的编程能力,无论是代码的审美、完成度,还是出错后的自动修复能力,绝对处于当前开源模型的第一梯队,甚至可以媲美顶尖闭源 AI 模型。

是的,春节的假期总会结束,薅来的奶茶也总有喝完的一天。

30 亿的补贴或许能换来一时的数据狂欢,但无法筑起真正的护城河。在这个模型迭代以月为单位的周期,唯有硬核的模型能力和极致的性价比,才是留住开发者和用户的根本。

除夕夜的这颗「源神」炸弹,或许正是 2026 年 AI 竞争格局的预演。

去年,DeepSeek V3 用一场「以小胜大」的奇袭,彻底改写了全球 AI 叙事,今年 Qwen3.5 再次证明了另一条路的可能性——用技术创新,而不是参数堆砌,来实现更强的智能。

而这个除夕夜,春晚的舞台上或许有精彩的表演,但真正的「年度大戏」,正在 AI 赛道上演。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

阿里 开源 ai 基础设施 效果
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论