【CNMO 科技消息】DeepSeek 于今日晚间正式宣布,其线上大语言模型已完成重大升级,新版本命名为 DeepSeek-V3.1-Terminus,现已面向用户开放在线体验。此次更新标志着该公司在模型性能与服务能力上的进一步提升。升级后的模型提供 " 思考模型 " 与 " 非思考模型 " 两种运行模式,均支持高达 128K 的上下文长度,能够处理更复杂的长文本任务,满足专业场景下的多轮对话与文档分析需求。
据官方公布的技术参数,非思考模型的输出长度默认为 4K tokens,最大可扩展至 8K tokens,适用于快速响应的常规交互场景;而思考模型则针对复杂推理任务优化,输出长度默认达 32K tokens,最大支持 64K tokens,适合需要深度逻辑分析、代码生成或长篇内容创作的应用。这一双模式设计使用户可根据具体需求灵活选择,兼顾效率与深度。
在服务定价方面,DeepSeek 公布了透明的计费标准,旨在为开发者和企业用户提供高性价比的 AI 服务。模型输入费用根据缓存命中情况区分:若请求内容命中缓存,每百万 tokens 仅需 0.5 元;未命中缓存则为 4 元。模型输出费用统一为每百万 tokens 12 元。该定价策略有助于降低高频调用场景下的运营成本,尤其利好需要重复访问相同知识库的应用。
登录后才可以发布评论哦
打开小程序可以发布评论哦