证券之星 02-18
年度盘点:春节战报炸场,中国大模型决战的拐点已至
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

文章作者:马麓

窗外是 2026 年春节的烟火,但在国产大模型的算力网络里,硝烟味却比年味更浓。

大洋彼岸的 AI 巨头们率先掀起迭代热潮,战事比国内更早升温,且动作密集远超以往。北京时间 2 月 6 日凌晨,Anthropic 与 OpenAI 几乎同步推出基础大模型新版本,形成正面交锋—— Anthropic 发布 Claude Opus 4.6,进一步优化复杂推理与多模态协同能力;OpenAI 则推出 GPT-5.3-Codex,作为 GPT-5.2 的迭代升级款,聚焦编程与工程化核心场景,实现推理与编程能力的深度融合。

在 2 月 12 日,谷歌也紧随其后官宣发力,对 Gemini 3 Deep Think 进行重大升级,重点推出专门针对科学、研究与工程场景打造的「推理模式」,旨在推动智能前沿发展。

不同于以往的分散迭代,此次海外三巨头几乎同步发力、各有侧重,既延续了自身核心优势,也进一步巩固了硅谷在大模型技术与场景落地层面的主导地位。

视线转回国内,这个春节呈现出一种诡异的冰火两重天。月之暗面、阿里云如急行军,赶在节前密集发布了各项性能指标对标甚至超越 GPT-5.2 的旗舰模型,试图在 HLE ( 人类最后考试 ) 等榜单上抢占全球第一的认知高地。

字节跳动则宣布 2 月 14 日,正式推出豆包大模型系列重磅升级;另一边,DeepSeek 的万亿参数旗舰宣告推迟,而智谱 GLM-5、MiniMax M2.2 已抢先压轴登场,让春节 AI 战局彻底白热化。

这似乎折射出中国 AI 正在分化出两条截然不同的路径,是继续在榜单上通过应试技巧围猎海外巨头,还是在架构重构的深水区寻找真正的反身性机会?当下,中国大模型正在经历一场追随与自主创新的深刻转型。

国产大模型的春节围猎

如果说 2025 年是中国大模型的百模大战,那么 2026 年春节的这场战役,已经演变成了行业寡头对技术定义权的争夺,以及底层技术路线的剧烈分化。阿里云在 1 月 26 日率先打响了春节档的第一枪。Qwen3-Max-Thinking 的发布,不仅是一款旗舰模型的落地,更是阿里试图构建 AI 时代安卓式开源生态的宣言。

该模型在 HLE 评测中拿下 58.3 分,大幅超过 GPT-5.2-Thinking ( 45.5 分 ) 和 Gemini 3 Pro ( 45.8 分 ) ,千问衍生模型数量已突破 20 万,累计下载量破 10 亿,试图用开源筑起生态壁垒。

紧随其后的月之暗面旗下 Kimi 则走了极致效率的极客路线,以 1% 资源换取极致效率,避开参数堆叠竞赛,通过自研 Muon 优化器专注办公与代码场景,其 K2.5 模型的 Agent 集群能力,可调度 100 个分身并行处理 1500 个步骤的复杂任务,走差异化竞争路线。

字节跳动 2 月 14 日宣布,豆包大模型正式进入 2.0 阶段。据介绍,豆包 2.0 系列包含 Pro、Lite、Mini 三款通用 Agent 模型和 Code 模型:豆包 2.0 Pro 面向深度推理与长链路任务执行场景,全面对标 GPT 5.2 与 Gemini 3 Pro;2.0 Lite 兼顾性能与成本,综合能力超越上一代主力模型豆包 1.8;2.0 Mini 面向低时延、高并发与成本敏感场景;Code 版 ( Doubao-Seed-2.0-Code ) 专为编程场景打造,与 TRAE 结合使用效果更佳。

音视频创作模型 Seedance 2.0 升级全模态交互能力;图像创作模型 Seedream 5.0 Lite 以轻量化架构兼顾效率与商业落地。

对此,杭州久痕科技、remio 创始人汪源在采访中也直言,豆包是国内日常使用中更贴合本土需求的模型,在中国历史、文化、影视娱乐,以及淘宝等本土电商场景上,凭借专属训练数据表现优于 GPT,能有效避免海外模型的常识性错误,但从能力上限来看,与海外顶尖模型仍有明显差距,而腾讯元宝发力较晚,当前竞争力相对较弱。原 OpenAI 核心成员姚舜禹加盟后,后续表现有望改观,但仍需时间检验。

上海人工智能实验室也在 2 月 4 日晚间重磅发布书生 -S1-Pro ——全球首个基于「通专融合」架构的万亿参数科学多模态大模型,仅激活 2% 参数即可应对复杂科学任务,成为开源社区的重要突破。

2 月 11-12 日,智谱、MiniMax 接连发布旗舰模型,彻底点燃春节档收官战局。智谱 AI 于 2 月 11 日正式推出 GLM-5,此前该系列曾以匿名身份在海外权威榜单登顶,总参数达 744B,在编程评测中拿下开源模型最高分,完成国产芯片全适配。

MiniMax 则在 2 月 12 日发布 M2.2,定位全球首个原生为智能体设计的生产级模型,SWE-Bench Verified 得分超越 Claude Opus 4.6,成本仅为 GPT-5 的 1/20,以极致性价比切入企业级场景。

然而,在六大阵营高歌猛进的喧嚣中,最引人注目的仍是 DeepSeek 的静默。网传其将推出 100 万 Token 上下文新模型,但春节期间仅对 V3 系列小幅更新,万亿参数旗舰因训练周期超期推迟。

据汪源回忆,去年 DeepSeek 上线时,曾是当时国产模型与海外顶尖差距最小的选手。尽管就在这几天,各大友商正通过春节档的密集发布,极力修补过去一年被海外巨头重新拉大的技术代差,但 DeepSeek 如今在万亿旗舰上的推迟,依然残酷地映射出了这道底层鸿沟的真实深度——当竞争维度从千亿参数的优化,跃升至万亿参数与原生思考的重构时,即便是曾经最出色的破局者,也不可避免地撞上了艰难的技术深水区。这无疑让 DeepSeek 的下一步动作,成了整场春节战事中最大的悬念。"

从刷榜思维到原生思考的虚实博弈

国内厂商密集发布新品,行业一度出现 " 从追赶到围猎 " 的论调,但汪源则给出了更清醒的判断,过去一年,国产大模型与 OpenAI、Anthropic、Google 三大海外巨头的差距,其实是被拉大了。

他指出,海外以 GPT-5.2 为代表的顶尖模型,已经完成了核心范式跃迁——不再严格区分思考模式与非思考模式,而是将推理能力内化为模型本能,且能精准控制推理耗时,简单问题快速响应,复杂问题的智能性远超当前国产模型。

反观国内,现阶段的大部分模型仍处于 " 显性推理 " 的工程化探索期 "。为了在逻辑难题上追赶顶尖水平,模型往往需要依赖极长的思维链 ( CoT ) 来换取准确率。这种 " 用时间换分数 " 的策略虽然能显著提升榜单成绩,但在实际应用中,往往伴随着更高的计算成本和等待时间,导致了高分榜单与流畅体验之间的一定错位。

汪源也直言,所谓 " 国产模型围猎海外巨头 " 的说法言过其实,海外厂商早已聚焦资源打磨编程、实用工具等核心能力,而国内团队若将大量资源投入到日常极少用到的博士级工科难题等榜单考点,必然会牺牲真实应用能力,这也是中外模型体验差距的核心根源。

不过,这种技术层面的 " 错位 " 正随着春节档后半程的密集发布迎来快速修正。需要指出的是,汪源的上述观察更多基于一月底前的行业切面。就在这几天,随着智谱 GLM-5、MiniMax M2.2 等压轴旗舰模型的正式交付,业内引发了新一轮的实测热议。从目前的行业反馈来看,最新一批的国产模型在推理响应速度、代码工程能力以及原生思考的流畅度上,已经有了肉眼可见的明显提升。

这表明,中国 AI 厂商并未陷入单一 " 刷榜 " 的迷思,而是正以极快的迭代速度打磨实际应用能力,努力填平 " 跑分 " 与 " 体感 " 之间的体验鸿沟。尽管技术范式上的代差依然存在,但这几天的密集突破证明,中国大模型正在以惊人的韧性缩短这一距离。

智能体集群与本地大脑的突围

当单纯的模型参数比拼进入边际效应递减的瓶颈期,2026 年全球大模型的竞争重心,已经不可避免地向智能体 ( Agent ) 与上下文工程 ( Context Engineering ) 转移。这不仅是技术的演进,更是大模型从云端玩具走向生产力工具的必经之路。

Kimi 的 Agent 集群、MiniMax 与智谱的企业级智能体模型,都是这一趋势的印证。但汪源指出,当前智能体仍面临两大核心瓶颈:一是上下文记忆缺失,多轮对话后极易 " 失忆 ";二是视觉能力不足,对图像布局与精度的理解偏差,制约了 AI 操作软件完成复杂任务的能力。这也正是行业下一步的核心攻坚方向。

而汪源所打造的 remio,虽然主攻欧美市场,但其技术哲学代表了中国开发者在应用层的另一种差异化突围:其核心壁垒并非简单的模型聚合,而是上下文工程 + 本地预处理,洞察到个人 PC 日常利用率较低的现状,通过盘活庞大的闲置算力,提前对本地邮件、文档解析索引,打造用户的「本地 Google」,在调用大模型时瞬间匹配历史信息,从根源解决智能体失忆问题。

这种「本地预处理 + 云端强模型」的混合架构,被视为应用层产品在巨头垄断的纯云端服务之外,建立独立护城河的关键路径。而在同一赛道上,DeepSeek 网传的 100 万 Token 上下文新模型,则是从模型底层试图解决这一难题。两者殊途同归,都指向了同一个未来——让 AI 拥有较长的记忆。

对于中国 AI 的未来,汪源持长期乐观态度。在他看来,中国完全有机会在 1-2 年内追平全球顶尖水平,两大长期优势不可替代——一是人才,虽然全球顶尖科研人才仍以美国为主导,但他指出大模型领域的核心主力不乏华人,中国在工程化人才储备上具备深厚底蕴,追赶势能强劲;二是基础设施,中国的电力供给、未来国产 GPU 的低成本优势,会在 5 年内逐步释放,为长期追赶提供物理底气。

2026 年的春节,或许正是中国 AI 从刷榜的应试迷思中醒来,走向技术深水区与产业实战的关键转折点。无论是阿里构建的开源生态、Kimi 探索的集群智能、豆包的本土多模态升级、智谱与 MiniMax 的工程化突破,还是 DeepSeek 正在酝酿的底层架构重构,都在证明一件事:真正的围猎不是榜单分数的暂时超越,而是当 AI 像水和电一样融入每一台终端、每一个产业工作流时,谁能掌握那个不可替代的技术与生态开关。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

阿里云 春节 编程 开源 字节跳动
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论