新智元 昨天
美国AI一骑绝尘,中国平均落后7个月,Epoch AI新报告出炉
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

一张来自 Epoch AI 图表给出了一个冷静却尖锐的结论:中国 AI 平均落后 7 个月。

一张图揭示真相:

自 2023 年以来,前沿 AI 全部来自美国!

最近,Epoch AI 一份报告指出,中国 AI 模型的进展平均落后于美国 7 个月——

最小差距为 4 个月,最大差距为 14 个月。

另一个被人们忽视的事实是,这平均 7 个月的代差,本质上也是「开源 vs 闭源」的差距。

仔细观察这张图表,就会发现中美 LLM 能力的差距,几乎完全贴合闭源和开源之间的整体差距。

7 个月的「生死距」

Epoch AI 最新图表,依旧衡量的是综合能力指数 ECI(模型整体前沿水平)。

它综合考虑了语言理解与生成、推理与问题分解能力、多任务泛化表现,已公开模型评测与专家校准。

这种差距,被量化为具体的时间。

也就是说,中国 AI 想要达到美国同等能力的水平,平均还需要 7 个月。

这是一个非常关键的分析视角,因为它默认了一个前提:中美 AI 能力的曲线是同向,但不同步的。

实际上,这张图表,隐含了三层重要的信息。

仅看美国 AI 这条蓝线,便会发现几个显著的特征——

更新节奏非常密集,从 GPT-4 到 o1,再到 GPT-5、Gemini 3 Pro,中间几乎没有长时间停滞。

而且,其能力跃迁不完全依赖参数规模。

就比如,o1 系列强大在于推理路径的设计,中间状态建模,以及训练目标的重构。它把「思考过程」纳入了工程对象。

相较之下,中国 AI 模型(红线)直观看,是典型的「跳跃式」追赶曲线。

从 Baichuan2、Qwen-14B 到 Yi-34B,再到 DeepSeek-V2、Qwen2.5、Qwen3 Max,每一步提升都很大,但中间间隔相对更长。

从标注的名字来看,中国 AI 是逐步通过扩大参数规模、MoE 架构拉平差距,比如 72B、236B、MAX、MoE。

如今回看这几年,中美 AI 差距真的在不断缩小。从图中时间轴来看:

2023 年:差距接近 10 – 12 个月

2024 年:收敛到 6 – 8 个月

2025 年:稳定在约 7 个月

这足以说明,中国 AI 追赶速度非常稳定,但同时,美国前沿 AI 推进速度同样没有放缓。

「开源」的锅?

难道说,开源成为了能力上限的约束?

目前,几乎所有中国最领先的大模型,都有一个共同特征:开源。

无论是 Qwen 系列,还是 DeepSeek 系列,都选择在不同程度上开放权重,让 AI 社区复现。

美国真正处于前沿的模型,包括 GPT-5、Gemini 3,无一例外,都是闭源的模型。

也正是在这些闭源模型之上,美国持续拉开了前沿能力的曲线。

不仅如此,在前沿数学 FrontierMath 基准测试中,也印证了中美 AI 的实力差异,大约就在 7 个月。

这 7 个月,并不意味着「追不上」,恰恰相反,它说明了中国 LLM 已完全进入全球大模型第一竞争梯队。

真正决定胜负的是,不是 GPT-5,不是 Qwen3 Max,而是下一次范式的跃迁。

让 AI 推理与行动深度耦合,实现自我反思与规划,以及智能体级的系统能力。

就在几天前,谷歌研究员已释放出,2026 年 AI 领域的重要信号——持续学习。

如何不用重新训练,让 AI 在参数里自我学习、迭代进化,将会成为下一代 AI 进化的核心能力。

谁能第一个跨过这条线,谁便会重新定义前沿。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 美国 开源
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论