快科技 1 月 13 日消息,今日,DeepSeek 发布新论文《Conditional Memory via Scalable Lookup: A New Axis of Sparsity for Large Language Models》(基于可扩展查找的条件记忆:大型语言模型稀疏性的新维度)。
该论文为北京大学与 DeepSeek 共同完成,合著作者署名中出现梁文锋。

论文提出条件记忆(conditional memory),通过引入可扩展的查找记忆结构,在等参数、等算力条件下显著提升模型在知识调用、推理、代码、数学等任务上的表现。
此外,DeepSeek 还开源相关记忆模块 Engram。
该模块提出了 " 查—算分离 " 的全新架构思路,业内认为,Engram 有望成为 DeepSeek 下一代模型 V4 的核心技术基础。
据媒体报道,知情人士透露,DeepSeek 计划于 2 月中旬农历新年前后推出 V4 模型,不过具体时间仍可能调整。



登录后才可以发布评论哦
打开小程序可以发布评论哦