量子位 昨天
让大模型“吃一堑长一智”,南理工百度等提出模型记忆新方法
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

多模态推理又有新招,大模型 " 记不住教训 " 的毛病有治了。

南京理工大学联合百度等单位提出新方法 ViLoMem,通过构建视觉流 + 逻辑流的双流语义记忆,让模型像人一样把视觉陷阱和推理错误分开存档,做到真正的 " 从错误中学习 "。

在六个多模态基准中,ViLoMem 让 GPT-4.1 在 MathVision 上暴涨 +6.48,小模型 Qwen3-VL-8B 在 MMMU 上提升 +4.38。

而且不需要任何微调,强模型积累下来的记忆还能直接迁移给小模型,起到类似 " 免费知识蒸馏 " 的效果。

整体来看,ViLoMem 做了三件关键的事:

把视觉错误和逻辑错误显式拆开存储;

为两种记忆分别设计生成、检索和更新机制;

通过增长 - 精炼机制控制记忆规模。

在不改动大模型参数的前提下,ViLoMem 能在多个多模态基准上稳定拉升表现,尤其是在需要精细视觉理解的数学与真实场景推理任务上,为构建真正 " 会从经验中长记性 " 的多模态智能体提供了一条很有潜力的道路。

大模型的 " 金鱼记忆 "

过去,大模型能背下全互联网,却很难记住自己刚犯过的错——这听上去有点好笑,但却是当前多模态大模型(MLLM)的真实写照。

在多模态解题任务里,大模型经常出现这样的场景——上一题刚刚栽在 " 把等腰三角形看成等边 " 上,下一题遇到类似图形,依然毫不犹豫地再犯一次。

也就是说,每道题都在 " 从零开始 ",之前踩过的坑几乎没形成结构化经验。

现有的记忆增强方法通常会在模型外接一个 " 记忆库 ",但大多只存储推理轨迹(trajectory),因此带来了两个核心问题。

一是简短性偏差(Brevity Bias),也就是经历过多轮压缩、总结之后,很多关键细节被抹平,最后只剩下一些 " 空洞结论 "。

二是单模态盲区,即便任务本身是多模态的,这些方法也主要记录文本推理过程,很少追踪 " 到底是哪里看错了 "。

但人类并不是这样记忆的。

认知科学研究表明,人类的语义记忆天生就是多模态整合的,既会记住 " 这道题要用勾股定理 "(逻辑规则),也会记 " 这个角看着像直角其实不是 "(视觉经验)。

ViLoMem 正是沿着这个方向,把视觉和逻辑错误拆开来专门建库。

双流语义记忆 ViLoMem

为了解决上述问题,作者提出了一个即插即用的双流记忆框架 ViLoMem(Visual-Logical Memory)。

用一句话概括这个框架就是,把 " 看错了什么 " 和 " 想错了什么 " 分开记忆。

结构上,ViLoMem 包含两个关键部分——记忆生成和记忆检索。

记忆生成:给每一次失败写下 " 错因小结 "

当模型在某道题上翻车时,ViLoMem 会并行启动两个分支。

一是视觉分析模块(MLLM),主要就是回答一个问题——这次是 " 眼睛 " 出了什么问题?

一旦确定是视觉层面的锅,系统会生成一条结构化的视觉指南(Visual Guideline),例如:

在判断物体材质时,应优先对比其与场景中已知金属物体的高光形态和纹理,而不是仅凭整体亮度做判断。

二是逻辑分析模块(LLM),这里关注的是推理链条哪一步出了问题?

对应的逻辑记忆可能长这样:

在涉及垂直平分线的几何问题中,只有位于平分线上的点才保证到线段两端点等距;除非有明确条件,否则不要默认某点在垂直平分线上。

为了增强记忆的通用性,新生成的记忆不会直接塞进库里,而是先和已有记忆做相似度匹配。

如果能够找到高度相似的条目,那就合并成更抽象、更通用的规则,找不到的话再新开一个记忆槽位。

这种 Grow-and-Refine 机制既避免记忆无限膨胀,又能让记忆从具体案例中不断抽象出更普适的语义模式。

记忆检索:视觉和逻辑两条路,各司其职

在处理新问题时,两类记忆的检索策略也不同。

视觉记忆采用了两阶段的检索模式,同时也引入了注意力图

第一阶段是图像级相似度搜索,利用多模态嵌入,先在整个视觉记忆库里筛一批 " 看上去像 " 的候选样本;

第二阶段则是问题语义过滤,也就是通过文本嵌入,对这些候选样本进行问题相关性过滤,保证 " 问的问题也类似 "。

在检索到合适的视觉记忆后,ViLoMem 还会生成问题感知的注意力热力图,在图上高亮历史上最容易被忽视或看错的区域,相当于给模型发了一份 " 视觉踩坑指南 "。

逻辑记忆的检索方式则是先理解题目,再找对应规则,其过程更偏向 " 题型分析 " ——

先让模型判断问题属于哪门学科、涉及哪些关键概念;

再基于分析结果构造查询向量,在逻辑记忆库中做语义匹配;

只保留相似度超过阈值的高相关记忆作为候选。

这种 " 先理解题目,再去库里翻笔记 " 的方式,比简单关键词匹配要干净得多。

六大基准全线提升

作者在六个多模态推理基准上系统评估了 ViLoMem,结果不管大模型、小模型都能够吃到红利。

从任务维度看,数学类任务收益最大,例如 GPT-4.1 在 MathVision 上 +6.48,在 MathVista 上 +2.61;

而从模型规模上看,小模型提升幅度更大,例如 Qwen3-VL-8B 在 MMMU 上 +4.38,在 RealWorldQA 上 +2.74。

这一结果符合直觉,因为数学和视觉密集任务对 " 看准了再算 " 要求最高,双流记忆能有效阻断视觉错误向推理链条的级联传播。

作者还做了一个有意思的 " 跨模型记忆迁移 " 实验——让大模型 " 带小弟刷分 ",也就是小模型直接使用大模型生成的记忆,看分数会发生什么变化。

结果显示,小模型拿着大模型的记忆成绩更好。

这意味着 ViLoMem 提供了一种 " 免微调的知识蒸馏 " 路径——强模型踩过的坑,可以直接变成弱模型的经验。

项目主页:https://vi-ocean.github.io/projects/vilomem/

一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!

—    —

我们正在招聘一名眼疾手快、关注 AI 的学术编辑实习生 

感兴趣的小伙伴欢迎关注  了解详情

点亮星标

科技前沿进展每日见

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

百度 南京理工大学 效果 互联网 数学
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论