三易生活 前天
DeepSeek V3.1升级,优化语言一致性等能力
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_font3.html

 

继此前在今年 8 月 DeepSeek 线上大模型升级至 V3.1,上下文长度从原有的 64k 拓展至 128k 后,日前 DeepSeek 方面宣布,DeepSeek-V3.1 已更新至 DeepSeek-V3.1-Terminus 版本。据悉,此次更新已同步覆盖官方 App、网页端、小程序,以及 API。

据了解,DeepSeek-V3.1-Terminus 在保持模型原有能力的基础上,针对用户反馈的问题进行了改进,包括改善语言一致性,缓解中英文混杂、偶发异常字符等情况,以及提升 Agent 能力,进一步优化 Code Agent 与 Search Agent 等表现。

在公开基准测试中,DeepSeek-V3.1-Terminus 整体表现较 DeepSeek-V3.1 有所提升。例如在 " 人类最后考试 "(Humanity ’ s Last Exam)基准中,DeepSeek-V3.1-Terminus 进步较为突出,成绩从 15.9 提升至 21.7,仅次于 Grok 4(25.4)和 GPT-5(25.3),略微超越 Gemini 2.5 Pro(21.6)。

目前,DeepSeek-V3.1-Terminus 提供了 " 思考模型 " 与 " 非思考模型 " 两种模式,均支持高达 128K 的上下文长度,能够处理更复杂的长文本任务,满足专业场景下的多轮对话与文档分析需求。

在定价方面,该模型输入费用根据缓存命中情况区分,若请求内容命中缓存,每百万 tokens 为 0.5 元,未命中缓存则为 4 元,输出则统一为每百万 tokens 12 元。

但需要注意的是,由于是以 Terminus(终极版)为名,因此有观点认为 " 这或许这也是 DeepSeek-V3.1 最后一次更新 "。截止目前,DeepSeek 方面尚未对此进行回应。

此外值得一提的是,不久前有消息称,DeepSeek 方面或正在开发一款具备更先进 AI 智能体(Agent )功能的大模型,意在与 OpenAI 等竞争对手在技术新前沿展开竞争。据称,DeepSeek 正在开发的这一模型可根据用户给出的简单指令,自动完成多步骤任务,并具备从以往操作中学习、自我改进的能力。

相关消息源还透露,该项目是由 DeepSeek 创始人梁文峰亲自带队,目标是今年最后一个季度正式发布相关新产品。

【本文图片来自网络】

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

小程序 考试 创始人
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论