DeepSeek 深夜又悄悄上线新动作。
4 月 8 日凌晨,DeepSeek 最新版本输入框新增了 " 快速模式 " 与 " 专家模式 "。据介绍,两种模式一个 " 适合日常对话,即时响应 ",一个则 " 擅长复杂问题,高峰需等待 "。

图:新升级的 DeepSeek 页面,来源:《听筒 Tech》截图
这一变化看似简单,细节却意味深长。
这是 DeepSeek 走红以来首次在产品端引入分层设计,此前,无论是小学生问作业题,还是博士生跑代码,用的是同一个模型。现在,DeepSeek 开始让用户做选择,也意味着大模型智能化又上了一个台阶。
另外,针对 DeepSeek 最新版本的更新,业内关注的焦点还在于," 专家模式 " 很可能搭载了传闻中的 DeepSeek V4 模型,在词元吞吐速度方面表现出色。
不过,不少网友实测发现,目前上线的 " 专家模式 " 搭载的可能仍是某个版本的 V4 Lite,而非 V4,完整版或许还需再等一等。
实际上,这次看似低调的更新,放在 2026 年的大模型竞争版图里看,信息量却不小。
这意味着,当用户需求越来越垂直," 一招鲜 " 已经不够用了。而在这个以 " 周 " 为单位刷新的 AI 世界里,如何持续保持技术纯粹和产品的普世性,仍是 DeepSeek 需要迫切思考的课题。
" 专家模式 " 是不是就是传言了很久的 V4 版本?
DeepSeek 自己的回答是,专家模式与传言中的 V4 版本有密切关系,但并不能完全等同,它更像是 V4 正式版到来前的一次核心功能预览。
为了证实这次更新是 " 换汤不换药 ",还是 " 实力碾压 ",《听筒 Tech》立刻进行了实测。
为了测出真实差距,《听筒 Tech》直接上了难度,喂给了 DeepSeek 一个物理编程题测试任务," 单摆运动数值模拟与周期计算。"
实测结果,《听筒 Tech》认为,专家版,确实更专业严谨、更符合科研、工程标准,Token 吞吐速度和逻辑链路完整度远超目前公开版本。快速版是精简入门版,够用但不深入。

图:DeepSeek 快速版对话框页面,来源:《听筒 Tech》截图
比如,两个版本在物理核心、数值方法和代码基础库上使用的是完全一样的,但快速版的算法更适合教学。
物理分析深度方面,快速版只输出了周期、误差,但专家版增加了能量守恒验证及周期随角度变化规律等,而这些,都是物理模拟必须验证的核心指标。

图:DeepSeek 专家版对话框页面,来源:《听筒 Tech》截图
为了测试两个版本的 " 人情味 ",《听筒 Tech》又测了一道经典的日常生活逻辑题," 我要去洗车,洗车的地方离家就 100 米,我是开车去呢,还是走着去呢?"
测试发现,快速模式的回答和专家模式基本没什么区别。不过,专家模式逻辑更清晰,回答更科学、简单。
不过,《听筒 Tech》测试发现,专家模式虽然脑力爆棚,但如果上传图片或文件,系统直接报错或屏蔽按钮。这意味着在处理含图表的长文分析时,必须切换到快速模式,牺牲智商换取 " 视力 "。
另外,专家模式有时确实会提示 " 等待 ",对 " 急活 " 可能不友好。
初步测试后,《听筒 Tech》认为,如果只是想写个文案、解读图片文字,用快速模式足够;但如果要搞代码、做物理模拟、解逻辑陷阱,就要请出 " 专家 " 了。
不过,网友亦发现了一个疑似 " 期货现象 " 的悖论。
诸如," 专家模式 " 在做极复杂的游戏(如太空侵略者)时,与 " 快速模式 " 拉不开差距,且代码中扒出的 " 视觉模式 " 按钮仍是灰色,说明此次灰度上线的产品并非最终形态。
对此,一位大厂程序员强哥对《听筒 Tech》坦言," 这次更新与其说是功能上线,不如说是 DeepSeek 的一次压力测试 。从模型的表现来看,几乎实锤 V4 模型已经在路上了,但视觉模式还没解锁。"
" 有预感,真的王炸很快就要来了。"
没有发布会,没有海报,这次升级,DeepSeek 依然保持它一贯 " 先做再说 " 的风格。
"DeepSeek 这样的头部模型产品动作,不能简单地理解为功能上新。" 强哥指出," 放在整个行业迭代的坐标系,也透露了不少新的信号。"
最明显的是,大模型的分层策略正在成为新的行业共识。
部分网友的 DeepSeek 灰度测试截图显示的界面,清晰地展示了不同选项。
有不少分析人士推测,这很可能对应着即将发布的 DeepSeek V4 Lite、DeepSeek V4,和 DeepSeek V4 Vision 三个版本,分别瞄准响应效率、复杂推理和多模态交互。
这不是 DeepSeek 一家玩法。
实际上,自 2026 年开年以来,全球大模型都在走 " 产品矩阵细分 " 的路线。OpenAI 的 GPT 系列有 mini 版和完整版,Anthropic 的 Claude 有 Haiku、Sonnet、Opus 三档,Google 的 Gemini 也在走这个路线。
" 打个比方来说,大模型厂商们终于意识到,没有人会用 F1 赛车去买菜,也没有人会用买菜车去跑赛道。" 强哥坦言。
另外,DeepSeek 这次升级,还给算力服务问题提前打了预防针。
有一个细节很容易被市场忽视,DeepSeek 官方提示," 专家模式在高峰时段需要排队等待。" 这说明,目前用户需求已经超出了服务承载能力。

图:DeepSeek 关于 " 高峰需等待 " 的提示
而放在一年前,DeepSeek 刚刚以 R1 震惊业界时,恐怕没人能预料到它会这么快面临多次 " 服务器被挤爆 "、" 超长时间宕机 " 的烦恼。
当然,更重要的是,强哥指出," 这也说明,在大模型狂奔的背景下,DeepSeek 必须不断奔跑,才能完成加速度。"
大模型快速迭代,已经是毋庸置疑的事实。
根据量子位的统计,仅今年 1 月 1 日至除夕的 47 天里,国内公开宣发、具有行业影响力的 AI 模型技术迭代就超过了 30 起。也即是说,在国内,平均每 1.5 天就有一个新模型问世。
国际市场方面,Meta 在今年元旦当天发布了 Llama4 Swarm,Google 接连推出 Gemini 3.1 Pro,Anthropic 更新 Claude Sonnet 4.6,OpenAI 推新一代 Codex ……
" 高频的技术脉冲平均每 2-3 天就引发一次行业热议。这意味着,AI 已无缓冲时代,模型竞争已经从谁先跑出来变成谁跟得上。这对 DeepSeek 而言,同样适用。" 强哥指出。
当然,在此之前,DeepSeek 的迭代节奏也没停过。诸如,今年 2 月,它就曾进行一次静默升级,将上下文长度从上一代 V3 系列的 128K Tokens 提升至 100 万 Tokens,实现了数量级跃升。
" 可以说,回头来看,DeepSeek 的更新思路很清晰,先通过静默升级和灰度测试释放技术能力,再用专家模式这样的产品形态让用户逐步感知到变化,最终为完整版 V4 的正式亮相铺路。" 强哥表示。
" 但问题是,千万别让市场等待太久。谁也说不准,明天会有什么炸裂的模型横空出世。另外,V4 到底能不能给市场惊艳,仍值得观察。" 强哥坦言。
不可否认的是,AI 行业的焦点,已经从价格战转向质量和算力输出战。
"2025 年,各大厂商还在疯狂压低 API 价格,试图以价格换市场。到了 2026 年,竞争的焦点已经转移到了模型真正的解决问题的能力上,这完全是两个世界。" 强哥坦言。
某种意义上,DeepSeek" 专家模式 " 的推出,就是在试图证明,AI 的价值不仅仅是 " 跑得有多快 ",而在于它在面对复杂问题时能输出更精准的答案。毕竟,在 AI 应用加速落地的今天,这直接决定了用户的去留。
除了关注质量,AI 的底座,算力竞争也发生了明显的改变。
" 市场为什么一直关注 V4 模型,主要原因是底层算力基础设施才是决定上限的关键。" 强哥指出。
国金证券一份研报指出,算力缺口将在更多模态和更广场景的催化下极速释放,推理侧需求将成为拉动产业链增长的新引擎。截至 2026 年 3 月,中国 AI 大模型日均 Token 调用量已突破 140 万亿,较 2024 年初增长超千倍。
不少分析便指出,DeepSeekV4 模型,便可能是完成新一轮算力变局中重要的一个角色。
比如,V4 从设计理念上区分了 " 记忆 " 与 " 思考 " 两种智能构架,这些架构优化的直接结果是训练成本断崖式下跌。以 V3 为例,其训练成本仅为 557.6 万美元,而 GPT-4 等模型的训练成本约为 1 亿美元。
另据 The Information 报道,DeepSeek 新一代模型 V4 将运行于华为最新芯片之上,且正在开发至少 2 款完全基于国产 AI 芯片的大模型,并提前开启优先适配计划。
换句话说,DeepSeek 不仅在跟其它模型比赛,也是 " 中国芯 + 中国模型 " 的一种自主生态路线。
" 这在全球 AI 芯片供应仍然紧张、英伟达 H100 一年期租赁价格涨幅接近 40% 的背景下,战略意义是很明显的。" 强哥坦言。
" 但 DeepSeek 的路,不好走。" 强哥表示,3 月 29 日晚,DeepSeek 就曾因服务大规模异常冲上热搜,用户频繁遇到 " 服务繁忙 " 提示,深度思考、长文本推理、代码生成等核心功能均受限或无法使用。
虽然,这次故障恢复了,但也暴露了一个问题,当用户量快速膨胀、技术复杂度持续攀升时,服务稳定性和算力支撑能否跟上,是所有大模型公司都必须面对的挑战。
更何况,DeepSeek 的 Vision 视觉版尚未正式上线;C 端的用户运营一直偏弱。甚至有评论指出,"DeepSeek 不怎么维护客户端,大部分 C 端都流向了国内其他模型 "。
尽管 DeepSeek 的迭代速度和技术实力在市场上得到了验证,这次 " 专家模式 " 的升级,本质上也在让产品提供不可替代的价值,但问题是," 用户价值才是终极考题。"
实际上,在社交平台,就有网友表示," 感觉专家模式中的深度思考还不如快速模式的深度思考 "。甚至有网友表示," 根本不在乎 DeepSeek 是不是更新了 "、" 问题是,我现在基本不怎么用 DeepSeek 了,豆包更聪明 ......"
" 如果这次的专家模式甚至未来的 V4 表现持续领先,DeepSeek 就能在这场质量战中守住自己的位置;如果只是昙花一现的噱头,那烧掉的研发资源和用户期待,终究会被更快的对手所消化。" 强哥表示。
这不难理解。当所有玩家都在加速迭代、竞争焦点从价格转向质量、算力成本仍在攀升时,考验就又进入了新的阶段。
而赢家,一定是能用技术和产品持续回答 " 用户为什么选我 " 的那一个。显然,DeepSeek 仍在寻找答案。
(头图由 AI 生成。)


登录后才可以发布评论哦
打开小程序可以发布评论哦