星河商业观察 04-27
比GPT-5.5 Pro便宜超700倍 DeepSeek V4 Pro
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

4 月 26 日,DeepSeek 官方发布 API 价格调整公告,全系 API 输入缓存命中价格降至首发价的十分之一。旗舰模型 DeepSeek-V4-Pro 更叠加限时 2.5 折优惠。

叠加两项优惠后,DeepSeek-V4-Pro 价格大幅下调:输入(缓存命中)低至 0.025 元 / 百万 Tokens,输入(缓存未命中)为 3 元 / 百万 Tokens,输出价格为 6 元 / 百万 Tokens。同期调价的还有 DeepSeek-V4-Flash,其输入(缓存命中)从 0.2 元 / 百万 Tokens 降至 0.02 元 / 百万 Tokens,无额外折扣,其余价格保持不变。

对于 RAG 知识库、智能客服等缓存命中率高的应用,商用成本降幅超过 90%,AI 规模化落地的成本门槛进一步降低。

那么,DeepSeek 的价格到底有多低?

据 Open Router 数据显示,GPT-5.5 Pro 加权平均输入价格为 30 美元 / 百万 Tokens,输出为 180 美元 / 百万 Tokens。单看输入(缓存命中)价格,DeepSeek-V4-Pro 比其便宜超 700 倍。

Anthropic Claude Opus、谷歌 Gemini 3.1 Pro 等海外顶级模型的输出定价也均在 12 至 25 美元之间,与调价后的 DeepSeek-V4-Pro 差距悬殊。

如此低价的背后,是 V4-Pro 在技术上的全面升级。

参与优惠的 DeepSeek-V4-Pro,是 DeepSeek 于 4 月 24 日正式上线并开源的旗舰模型,分为 Pro 和 Flash 两个版本。

该系列全系原生支持 1M token 超长上下文,采用全新注意力机制结合 DSA 稀疏注意力,实现长上下文处理效率的突破—— 1M token 场景下,V4-Pro 单 token 推理 FLOPs 仅为 V3.2 的 27%,KV Cache 大小仅为 V3.2 的 10%,大幅降低计算和显存需求。

其架构升级还包含 CSA+HCA 混合注意力机制、mHC 流形约束超连接和 Muon 优化器三项核心创新,既强化残差连接稳定性,也提升了收敛速度。

DeepSeek-V4-Pro 拥有 1.6T 总参数、49B 激活参数,在 33 万亿 tokens 上完成预训练,各项能力对标顶级闭源模型。

Agent 能力是其突出升级方向,在 Agentic Coding 评测中达到当前开源模型最佳水平,使用体验优于 Sonnet 4.5,交付质量接近 Opus 4.6 非思考模式。世界知识测评中,它大幅领先其他开源模型,仅稍逊于 Gemini-Pro-3.1;推理性能上,在数学、STEM、竞赛型代码测评中,更是超越所有已公开评测的开源模型,比肩世界顶级闭源模型。

另一版本 DeepSeek-V4-Flash 为 284B 总参数、13B 激活参数,在 32 万亿 tokens 上完成预训练,面向对成本和速度更敏感的场景。相比 V4-Pro,它的世界知识储备稍逊,但推理能力接近;简单 Agent 任务上两者旗鼓相当,高难度任务仍有差距。

目前,DeepSeek API 已同步上线 V4-Pro 和 V4-Flash,支持 OpenAI ChatCompletions 接口与 Anthropic 接口,修改 model 参数即可调用。

需要注意的是,旧有模型名 deepseek-chat 与 deepseek-reasoner 将于 7 月 24 日停止使用,当前这两个模型名分别对应 V4-Flash 的非思考模式与思考模式。

尽管价格大幅下调,DeepSeek-V4-Pro 仍受高端算力限制,Pro 版本服务吞吐十分有限。后续价格能否进一步下调,仍需等待下半年昇腾 950 超节点批量上市。

来源:星河商业观察

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

命中率 谷歌 ai 开源 智能客服
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论