采用华为昇腾国产算力,价格大幅下调,性能比肩顶级闭源模型,DeepSeek V4 终于来了!

4 月 24 日,DeepSeek 官方正式发文,称 DeepSeek V4 的预览版本正式上线并同步开源。
DeepSeek V4 拥有 Pro 与 Flash 两个版本模型,分别对应网页端 /App 上的 " 专家模式 " 与 " 快速模式 "。

DeepSeek V4 Pro 的参数达到 1.6T,激活参数 49B,预训练数据 33T,上下文长度达到 1M。
DeepSeek V4 Flash 的参数达到 284B,激活参数 13B,预训练数据 32T,上下文长度同样达到 1M。
那么 DeepSeek V4 的性能表现如何呢?根据 DeepSeek 公布的测试数据:
在 Agent 能力方面,DeepSeek V4 Pro 在 Agentic Coding 测评中,是开源模式中最佳水平,交付质量接近 Opus 4.6 非思考模式,与 Opus 思考模式还存在一定差距。

在世界知识方面,DeepSeek V4 Pro 仅稍落后于闭源模型 Gemini-Pro-3.1。
而在推理性能方面,DeepSeek V4 Pro 在已公开评测的开源模型中排名第一。

DeepSeek V4 Pro 与 V4 Flash 的 API 已经同步上线,价格上 Pro 版本每百万 token 输入(缓存未命中)12 元,输出 24 元,而 Flash 版本则是每百万 Token 输入(缓存未命中)1 元,输出 2 元。
不过 DeepSeek 表示,受限于高端算力,目前 Pro 的服务吞吐十分有限,预计下半年昇腾 950 超节点批量上市后,Pro 的价格还会大幅下调。

实际上目前 DeepSeek V4 的价格已经在行业内非常有竞争力,而通过这番注解,可以看到 DeepSeek V4 并未采用 CUDA 生态,而是实现了国产化适配,因此价格有望一降再降。
虽然发布比大家想象中要更晚一些,但是 DeepSeek V4 的意义还是比较重大的,它意味着国产顶级开源大模型在推理环节已经摆脱对英伟达 GPU 的依赖。


登录后才可以发布评论哦
打开小程序可以发布评论哦