编辑 | 金冥羽 高涵 向江林
校对 | 张锦河
大模型正在从 " 聊天 " 进入 " 干活 " 的阶段。
真正让开发者和企业用户焦虑的,也不再只是一次问答多少钱,而是 Agent 在长上下文、多轮推理、代码调用和自动化工作流中持续燃烧的 Token 成本。
就在这一节点,DeepSeek 连续两天出手降价。
4 月 25 日晚,DeepSeek 宣布对 V4-Pro 模型 API 开启限时 2.5 折价格优惠。26 日晚,DeepSeek 又宣布 DeepSeek 全系列 API 服务,输入缓存命中的价格降至原有价格的 1/10。其中,Pro 模型在 2026 年 5 月 5 日前叠加 2.5 折限时优惠。最新调价后,DeepSeek-V4-Flash 每百万 tokens 输入缓存命中价格为 0.02 元,DeepSeek-V4-Pro 为 0.025 元。
《每日经济新闻》记者(以下简称每经记者)注意到,在 OpenRouter 上,DeepSeek 新模型 4 月 24 日上线后调用量已有明显增长。数据显示,4 月 25 日,DeepSeek V4-Pro 的调用量为 136 亿 Token,较前一日(4 月 24 日)增长近四倍。
上海财经大学特聘教授胡延平在接受每经记者采访时表示,DeepSeek 此举意在延揽更多用户,尤其是企业用户、开发者和各类 Agent 用户。近几个月国际国内主要模型服务的资费都有较大幅度上涨,DeepSeek 在资费方面再次压低行业价格预期。

图片来源:兰素英

4 月 24 日,DeepSeek-V4 预览版正式发布并同步开源,号称在 Agent 能力、世界知识与推理性能三大维度达到国内及开源领域领先水平。
就在模型发布次日(25 日晚),DeepSeek 宣布 DeepSeek-V4-Pro 模型 API 限时 2.5 折优惠,优惠期截至 2026 年 5 月 5 日。
26 日晚,DeepSeek 又宣布 DeepSeek 全系列 API 服务,输入缓存命中的价格降至原有价格的 1/10。Pro 模型则在 2026 年 5 月 5 日前叠加 2.5 折限时优惠。
要知道,在本次连续两日降价之前,DeepSeek-V4 的价格本就极具 " 杀伤力 "。同样处理百万 Token 的输入与输出,GPT-5.5 和 Claude Opus 4.7 的合计成本分别是 35 美元和 30 美元。而 DeepSeek-V4-Pro 仅需 5.27 美元。如果输入命中缓存,输入价格进一步降至每百万 Token 0.145 美元,合计成本降至 3.66 美元。
也就是说,在标准定价下,DeepSeek-V4-Pro 的成本大约是 GPT-5.5 的七分之一、Claude Opus 4.7 的六分之一。如果缓存命中,则大约是 GPT-5.5 的十分之一、Claude Opus 4.7 的八分之一。
而 DeepSeek-V4-Flash 的输入价格每百万 Token 仅 0.145 美元,输出价格 0.293 美元,合计 0.439 美元。缓存命中后进一步降至 0.322 美元。
而现在,降价叠加限时优惠,DeepSeek-V4-Pro 输入缓存命中的价格已降低至 0.025 元 / 百万 Token,为原价的四十分之一。

通过上表可以看到,从公开 API 单价看,DeepSeek-V4 系列已进入全球主流高性能模型中的最低价格带。尤其是在输入缓存命中场景下,V4-Pro 限时价降至 0.0037 美元 / 百万 Token,V4-Flash 更低至 0.0029 美元 / 百万 Token,显著低于 GPT-5.5、Claude Opus 4.7、Gemini 2.5 Pro 等一线闭源模型。不过,若按完整任务成本计算,模型输出 Token 数、推理长度和任务类型仍会影响最终账单。
DeepSeek 这次真正打穿的,不是 " 所有模型的绝对最低价 ",而是 " 高性能 Agent 模型的价格锚 "。
对此,上海财经大学特聘教授胡延平在接受每经记者采访时指出,DeepSeek 此举意在延揽更多用户,尤其是企业用户、开发者和各类 Agent 用户。
"Agent 的 Token 消耗比较高,V4 在模型达到一线水准的情况下,资费显著低于其他国产模型,对用户来说有很大吸引力。" 胡延平表示," 近几个月,国际国内主要模型服务资费都有较大幅度上涨,DeepSeek 则在资费方面再次击穿行业成本线。"

DeepSeek-V4 分为 Pro 与 Flash 两个版本,均支持百万(1M)Token 超长上下文。
Artificial Analysis 对 DeepSeek-V4 进行了推理能力专项测评。结果显示,V4-Pro 在人工分析智能指数中斩获 52 分,相较 V3.2 版本的 42 分实现 10 分跃升,成为仅次于 Kimi K2.6 的全球第二大开源推理模型。

图片来源:DeepSeek 微信公众号
V4-Flash 得分 47 分,性能弱于 V4-Pro,但显著超越 DeepSeek-V3.2,综合智能水平对标 Claude Sonnet 4.6(全力版),介于顶尖闭源模型与主流中端模型之间。
每经记者注意到,在全球最大 AI 模型应用程序编程接口聚合平台 OpenRouter 上,DeepSeek 新模型上线后调用量已有明显增长。
数据显示,4 月 25 日,DeepSeek-V4-Flash 的调用量为 502 亿 Token,较前一日增长 85.9%;DeepSeek-V4-Pro 的调用量为 136 亿 Token,较前一日增长近四倍。
不过,这场热度能否持续,仍有待观察。截至发稿,DeepSeek 两款新模型并未登上 4 月 20 日至 26 日当周的 OpenRouter 全球 AI 大模型周调用量榜单和 4 月 26 日的 OpenClaw 日调用榜。
在 DeepSeek 首次官宣降价的次日(4 月 26 日),DeepSeek-V4-Flash 的调用量为 814 亿 Token,较前日环比增长 62.2%。DeepSeek-V4-Pro 的调用量为 96 亿 Token,不及前日。
但 DeepSeek 的猛烈攻势,无疑给其他模型厂商带来了压力。
胡延平分析称:"DeepSeek 的超低 Token 资费会在一定程度上压低部分高性能模型的价格预期,对 Kimi K2.6、GLM-5.1、Qwen 系列、MiniMax 等国产模型的价格预期形成压力。"
那么,这是否意味着大模型 Token 价格的拐点已至?胡延平认为,如果后续国产推理算力能进一步大规模部署,在 Agent 应用不断拉高消耗量的情况下,有望平抑持续上涨的 Token 价格。但他同时也强调,此举对 GPT-5.5、Claude 4.7 Opus 等顶尖模型的影响可能相对有限。
但无论如何,DeepSeek-V4 这条 " 鲶鱼 " 的闯入,已经开始搅动大模型市场。对于广大开发者和用户而言,一个选择更多、成本更低的新时代,或许正加速到来。


登录后才可以发布评论哦
打开小程序可以发布评论哦