钛媒体 App 2 月 27 日消息,在业界对新一代旗舰模型 DeepSeek V4 的翘首期盼中,DeepSeek 团队却悄然放出了一篇新的学术论文。这篇论文由 DeepSeek 联合北大、清华共同撰写,将研究方向投向了决定大模型实际应用落地的关键一环——推理速度,为日益复杂的 AI 智能体,提供一套高效的底层系统解决方案。具体来说,新论文介绍了一个名为 DualPath 的创新推理系统,专门针对智能体工作负载下的大模型(LLM)推理性能进行优化。通过引入 " 双路径读取 KV-Cache(类似记忆缓存)" 机制,重新分配存储网络负载,将离线推理吞吐量最高提升 1.87 倍,在线服务的每秒智能体运行数平均提升 1.96 倍。论文在引言部分提到,大模型正从单轮对话机器人和独立推理模型,快速演进为智能体系统 ——能够自主规划、调用工具,并通过多轮交互解决实际任务。这种应用范式的转变,推动大模型推理工作负载发生重大变革:从传统的人类 - 大模型交互,转向人类 - 大模型 - 环境交互,交互轮次可达数十甚至数百轮。(第一财经)


登录后才可以发布评论哦
打开小程序可以发布评论哦