上个周末,包括英国《金融时报》在内的一些外媒报道称:DeepSeek V4 将在本周一(3 月 2 日)发布。还有报道宣称,V4 将针对国产芯片进行优化,是该系列大模型当中第一个完全基于国产算力生态的云云。这一消息很快被大量国内媒体转载,大家都期待着 V4 早日露出真容——可是什么都没有发生。
大家盼望 DeepSeek V4 发布,已经有一个多月了。之前很多人预测它将于春节期间发布,不过也有消息称,春节还太早了一点。其实,春节期间,豆包、千问、GLM…… 等竞争对手争先恐后地发布新版本,在一定程度上可以视为对 DeepSeek 的一种 " 预防性竞争行为 ":只要 V4 发布,其光芒就会过于强大,遮盖一切竞品;所以竞品必须赶紧也拿出高水平的新版本才行。
春节前不久,DeepSeek 做了一次更新,扩大了上下文窗口,并一度被误传为 "V4 已经开始灰度测试 "。那段时间,我的朋友圈到处有人在问:" 你被 V4 灰度到了吗?怎么拿邀请码?" 事实证明那次更新并不是 V4,虽然被广泛称为 "V4Lite",但毕竟不是正式版 V4;它的跑分处于国产大模型的第一梯队,但更新尚未达到让人眼睛一亮的程度。
我在 AI 圈的朋友,普遍对 DeepSeek V4 仍然抱有很大希望,其原因有二:
从梁文锋署名的一系列论文看,DeepSeek 团队在基础研发方面是有想法的,正在力图进行创新,其站位高于大部分大模型创业团队;
今年 1 月底,梁文锋曾颇有自信地预告过不久后的新版本," 根据他的性格,没有把握的事情是不会事先宣传的 "。
从 DeepSeek 团队发表的论文看,最近一段时间它的研发似乎聚焦于两个方向:一个是编程,一个是多模态。前者非常自然,因为 AI 编程是发展最快、成熟度最高的大模型应用,今年以来发布的 Claude Code with Opus 4.6 以及 ChatGPT-5.3-Codex 再次刷新了 AI 编程的上限。这是一条已经被证实的坦途,DeepSeek 的前几个小版本在这方面进步也很大,V4 再次取得巨大进展是可以理解的。
后者则是在补齐软肋—— DeepSeek 迄今最大的弱点就是没有多模态功能,这一点不但限制了它的 C 端应用,而且限制了它的 B 端应用。因为 B 端收入的来源是客户对 Token 的消耗,多模态的 Token 消耗比传统的文本生成高了一个、甚至好几个数量级。不久前 Seedance 2.0 的发布,再次证明了优秀的多模态大模型具备多高的用户基础和商业潜力。从已发表的论文看,DeepSeek 肯定不满足做一个 " 文生文 " 大模型,已经在多模态方面下了不少工夫。
现在全村人都在等着 DeepSeek V4 上桌吃饭了,究竟什么时候才能真正开饭呢?我认为,这里有一个非常重要的因素:V3/R1 是当时全世界最出色的开源大模型,尤其在推理成本控制方面取得了巨大进展,所以震惊了世界;此时此刻,V4 必须也成为全世界最出色的开源大模型(至少是之一),才能再次震惊世界。这是成功者必须面临的问题:成功的标杆越抬越高,每一次的挑战都更大。
还有一个重要因素:当初震惊世界的主要是 R1,也就是深度推理大模型。如果没有深度推理功能,至少对于一般用户而言,DeepSeek 不会显得那么特殊。假设 DeepSeek 先推出 " 普通版本 " 的 V4,过一段时间再推出 " 深度推理 " 的 R2,市场是否会觉得解渴?当然,有一种更稳妥的方式,就是同时推出 V4 和 R2,不过这需要更多的资源,对于一家仍处于创业级别的公司而言,未必合适。我相信,在决定新版本大模型上线节奏的时候,DeepSeek 团队肯定考虑到了上述全部因素。

还有一个问题:大模型开发,比拼的既是基础研发,也是工程执行。我们目前能看到的公开信息,主要是基础研发层面的,例如 DeepSeek 团队发布的学术论文;我们对于背后的工程课题、工程瓶颈,知之甚少。迄今为止,关于 DeepSeek 新版本训练过程的一切媒体报道,其实都是捕风捉影,没有得到官方的任何承认,也缺乏第三方信源参考。举个例子:谷歌在大模型基础研发方面一直保持领先,但是在 Bard 以及 Gemini 早期,工程执行方面犯下了很多错误,直到 2024 年下半年才赶上来。如果 DeepSeek 过去一段时间致力于解决一些工程环节的细节问题,我不会感到奇怪。
假设 DeepSeek V4 真的像英国《金融时报》报道的那样,全面拥抱国产算力体系的话,在工程方面的挑战就更大了。要知道,哪怕同样是在英伟达框架之内,硅谷大厂把训练任务从 Hopper 架构转向 Blackwell 架构,也需要花一段时间;何况是在两个完全不同的框架之间调整?这样的工程问题注定难以在短期内得到解决,能解决就不错了,无法强求。
但是,需要强调的是:目前关于 V4 训练细节的报道,无论来自外媒还是国内媒体,基本都是根据间接渠道的猜测、整合,从未得到官方的任何认可。真正的训练细节,只有在新版本发布的那一刻才会被外界得知,而且也不可能是全部细节。只能说:一切皆有可能,但不是每种可能性都值得现在就讨论。
话说回来,哪怕在长达一年多没有大版本更新(中间有 2-3 次小版本更新)的情况下,而且是在极少做市场活动的情况下,DeepSeek APP 的 MAU 仍然超过 1 亿,在国内 AI 应用中位居第四或第五名,哪怕是在春节期间砸了重金的元宝也无法超过它(这在一定程度上要感谢 V4Lite 的更新)。假如现在推出 V4,那么 DeepSeek 仍然有希望一波冲到全国 AI 前三的水平;假如再晚一些,就不好说了,因为互联网大厂围绕 AI 的军备竞赛愈演愈烈,DeepSeek 在今年面对的竞争密度远高于去年,国内如此,国外也是如此。
不管怎么说,既然市场上频繁传出 "DeepSeek V4 即将发布 " 的消息,至少说明新版本发布已经不再遥远了。我非常希望能尽快看到 V4,因为迄今为止,DeepSeek 仍是我使用频率最高的四个大模型之一(另外三个是 GPT、Gemini、Grok),也是我使用频率最高的国产大模型。我一定会在发布之日立即尝试,并且询问 AI 圈的朋友的使用体验。希望我们都不会失望!
本文没有得到 DeepSeek 或其任何竞争对手的资助或背书。


登录后才可以发布评论哦
打开小程序可以发布评论哦