量子位 4小时前
向量检索爆雷!傅聪联合浙大发布IceBerg Benchmark:HNSW并非最优,评估体系存在严重偏差
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

将多模态数据纳入到 RAG,甚至 Agent 框架,是目前 LLM 应用领域最火热的主题之一,针对多模态数据最自然的召回方式,便是向量检索。

然而,我们正在依赖的这一整套 embedding →向量检索→下游任务的流程,其实存在一个未被正确认知到的陷阱。很多人认为向量检索方法已经被标准化了,用到向量检索算法就无脑上 HNSW。

事实上,我们发现,以真实的下游任务为黄金基准,HNSW 在很多任务上表现并不好,在多模态的道路上,RAG 还远没到标准化的程度,我们以往针对向量检索算法的评估体系,也只是海平面上的冰山一角。

为此,向量检索领域大佬傅聪联合浙江大学软件学院副院长高云君、柯翔宇团队推出了向量检索新基准IceBerg,以下游语义任务为基准,而非 Recall-QPS,给出了一个足以颠覆过去五年行业认知的洗牌。

认知偏差:距离度量≠语义相似度

我们先来看一组例子:

案例一:

在大规模人脸验证数据集 Glink360K 上,人脸识别的准确性在按距离度量计算的 Recall 到达 99% 之前,早早就达到了饱和。此外,NSG(基于图的 SOTA 向量检索算法)相比于 RaBitQ(基于哈希的量化算法)在距离度量 recall 下有着 " 绝对优势 "。但在下游语义任务,即人脸识别准确率上,NSG 一致弱于 RaBitQ。

这说明,向量检索领域存在着严重的" 产能过剩 " 和评价体系失准。很多时候,我们用了远超 " 真实需求 " 的向量检索算法、消耗了远超需求的算力。同时,以往的评价体系中的优胜者,在真实环境下并不一定能胜出。

案例二:

针对同样的 embedding,不同的度量空间会给下游任务效果带来巨大差异。使用 EVA02 作为图片 encoder 抽取的表征,用欧氏距离可以达到 80%+ 的语义识别精度,但用内积度量,无论如何调参,其下游任务精度一直停留在了 1% 附近。

很多人用 embedding 的时候,度量选择会无脑上 Cosine(内积相似度的一种特例),我们的研究表明度量空间选择这里存在巨大的 " 陷阱 "

端到端的信息损失漏斗模型

从下游 / 终端的任务评价体系看,为什么向量检索的 " 真实 " 效果与行业认知有如此大的信息偏差呢?我们提出了一个信息损失漏斗模型来帮助大家理解,端到端的视角下,信息逐层损失的过程。

阶段一:表征模型 Capacity 瓶颈。

大家都是通过一个表征学习模型(representation learning model)来获取 embedding 的。那么表征模型的能力上限决定了的 embedding 的语义表达力和质量。

哪些因素会影响模型的表达力呢?

1. 模型的泛化误差(泛化能力):

大多数模型在 test 数据集上的表现会逊色于在 training 数据集上的表现。更重要的是,模型很多时候在训练数据上也做不到 100% 的准确性。

2. 模型的学习目标

很多时候,模型并不是以 " 学一个好的度量空间 " 为目的来设计的。

表征学习(representation learning)很多时候不等于度量学习(metric learning),大多数时候,模型学习的是语义相似度。换句话说,模型的学习目标(损失函数)并不一定鼓励 " 语义相近的样本,在度量空间中更接近 "。

值得注意的是,我们常用的向量空间中,欧式空间是一个 " 度量空间 "(metric space),而内积空间(包括 cosine)不是一个数学严格意义上的度量空间。例如不支持三角不等式的准则。

这些原因会导致,数据在通过模型转变为 embedding 的过程中,会有大量信息损失,尤其是语义和度量对等性问题上。

阶段二:度量选择

有的模型在设计之初,就规定了 encoder 最适合使用的相似度定义。例如 Clip 模型就预设图片和文本的相似度由向量之间的 cosine 决定。

但其它的一些生成式表征模型,例如一些 auto encoder pretrain model,就没有对度量空间的明确约束。这个时候选择欧式距离还是内积距离,就会对结果产生巨大影响。

阶段三:向量检索方法选择

向量检索的方法种类繁多,但落地应用效果最好的可以分为两大类。一类是基于空间切分(量化)的,例如 Faiss 中的 IVF-PQ、RabitQ;一类是基于图结构索引的,例如 NSG,MAG,HNSW。不同的方法,针对不同的数据分布,有着不同的 " 亲和度 "。

这是因为向量检索算法,本质上都是在用某种近似的手段,最小化搜索空间,避免暴力检索。因此,向量检索算法在运行过程中,总会 " 忽略 " 一部分数据。而不同的检索算法,选择性忽略的数据不同,就造成了他们在下游任务中的不同表现。

1. 向量检索算法排名大洗牌

为了从端到端的视角,重新审视向量检索方案们的真实能力,我们构造了 IceBerg Bench,覆盖不同模态、不同任务、不同 embedding model。看看在这些元素的交叉组合下,向量检索算法的排名会有如何变化。

从上述结果,我们可以看到,HNSW 并非下游任务中的 " 常胜将军 "。不同的交叉组合下,有不同的方法脱颖而出。

其中最有趣的一点是,在 ImageNet 图片识别的任务上,欧式距离和内积距离上最优的任务(HNSW/ScaNN),都没能成为下游任务的赢家(RaBitQ)。这说明,在语义到度量的理解上,机器学习领域还有很长的路要走。

2. 新手玩家利器:自动化算法选型

向量检索效果如此难调,有没有什么办法可以让没有相关背景知识的小白避免暴力测试选对方法,无痛优化多模态 RAG呢?有!IceBerg 不仅是一个 benchmark,还提供了自动化的算法检测方案。

我们发现,在不了解 embedding 产出的背景信息的前提下,从数据分布的统计信号上,我们依然可以找到甄选算法的入手点,并以此构建了一个可解释的 " 决策树 "。

我们发现,embedding 相对于度量、算法的 " 亲和力 " 可以从几个统计指标中看出来,而这些统计指标分别度量了数据的聚类程度、向量方向分散度等属性,可以通过我们随数据集提供的脚本快速计算,并自动化地根据我们测试的、在多种模态、多种 encoder backbone、多种任务的角度下,一致有效的决策树,自动判断方法选择。机器学习模型还在不断进化,IceBerg 也会保持最前沿 encoder 的追踪,实时更新算法选择工具。

迈向标准

IceBerg 首次从端到端的价值体系下重新度量了 SOTA 向量检索方法的真实能力。同时也暴露出来了向量数据库领域深埋于 " 海平面 " 之下的认知陷阱。

研究团队呼吁未来的向量检索研究,更加深入到 RAG、Agent 等下游应用的语境下,关注度量 - 任务匹配度、算法 - 数据分布兼容性、乃至跨度量 / 多度量 / 多向量的统一向量检索算法,真实实现 RAG 的标准化。

论文 arxiv:https://arxiv.org/abs/2512.12980

论文 Hugging Face:https://huggingface.co/papers/2512.12980

代码 Github:https://github.com/ZJU-DAILY/Iceberg

一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!

—    —

我们正在招聘一名眼疾手快、关注 AI 的学术编辑实习生 

感兴趣的小伙伴欢迎关注  了解详情

点亮星标

科技前沿进展每日见

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

浙江大学 高云 人脸识别 黄金
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论