继此前在今年 8 月 DeepSeek 线上大模型升级至 V3.1,上下文长度从原有的 64k 拓展至 128k 后,日前 DeepSeek 方面宣布,DeepSeek-V3.1 已更新至 DeepSeek-V3.1-Terminus 版本。据悉,此次更新已同步覆盖官方 App、网页端、小程序,以及 API。
据了解,DeepSeek-V3.1-Terminus 在保持模型原有能力的基础上,针对用户反馈的问题进行了改进,包括改善语言一致性,缓解中英文混杂、偶发异常字符等情况,以及提升 Agent 能力,进一步优化 Code Agent 与 Search Agent 等表现。
在公开基准测试中,DeepSeek-V3.1-Terminus 整体表现较 DeepSeek-V3.1 有所提升。例如在 " 人类最后考试 "(Humanity ’ s Last Exam)基准中,DeepSeek-V3.1-Terminus 进步较为突出,成绩从 15.9 提升至 21.7,仅次于 Grok 4(25.4)和 GPT-5(25.3),略微超越 Gemini 2.5 Pro(21.6)。
目前,DeepSeek-V3.1-Terminus 提供了 " 思考模型 " 与 " 非思考模型 " 两种模式,均支持高达 128K 的上下文长度,能够处理更复杂的长文本任务,满足专业场景下的多轮对话与文档分析需求。
在定价方面,该模型输入费用根据缓存命中情况区分,若请求内容命中缓存,每百万 tokens 为 0.5 元,未命中缓存则为 4 元,输出则统一为每百万 tokens 12 元。
但需要注意的是,由于是以 Terminus(终极版)为名,因此有观点认为 " 这或许这也是 DeepSeek-V3.1 最后一次更新 "。截止目前,DeepSeek 方面尚未对此进行回应。
此外值得一提的是,不久前有消息称,DeepSeek 方面或正在开发一款具备更先进 AI 智能体(Agent )功能的大模型,意在与 OpenAI 等竞争对手在技术新前沿展开竞争。据称,DeepSeek 正在开发的这一模型可根据用户给出的简单指令,自动完成多步骤任务,并具备从以往操作中学习、自我改进的能力。
相关消息源还透露,该项目是由 DeepSeek 创始人梁文峰亲自带队,目标是今年最后一个季度正式发布相关新产品。
【本文图片来自网络】
登录后才可以发布评论哦
打开小程序可以发布评论哦