量子位 02-23
多模态大模型事实正确性评估:o1最强,模型普遍过于自信,最擅长现代建筑/工程技术/科学
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

OpenAI o1 视觉能力还是最强,模型们普遍 " 过于自信 "!

这个结果来自首个面向事实知识的中文视觉问答基准ChineseSimpleVQA

该基准测试包含 2200 个高质量问题,覆盖了 8 个主要话题和 56 个子话题,这些问题涉及从人文到科学和工程等多个领域,由淘天集团未来生活实验室团队推出。

据介绍,这是第一个系统性地衡量视觉大模型事实准确性的中文评测集,可以全面探测模型在各个领域的视觉识别能力和知识水平。

也是继提出 Chinese SimpleQA 和 Chinese SafetyQA 之后,淘天集团算法技术未来生活实验室团队再次提出面向多模态大模型的事实知识评测基准。

1100 幅图片和 2200 个问答对作为终版数据集

Chinese SimpleVQA 贡献了一个严谨的数据构建流程,其将视觉事实性解耦为两个部分:

观察世界(即主体识别)

发现知识

这种解耦方法方便分析多模态大模型的知识边界及执行机制。

具体来说,Chinese SimpleQA 的构主要分为自动化问答对生成和质量控制两个阶段:

第一阶段,QA 对生成。

为了创建基于事实知识的视觉问答对,研究者从维基百科的 " 每日图片 " 栏目收集了 6546 个图文对,每张图片对应一个平均长度为 723 个字的百科类文本。

问答对的构建主要包括以下三个流程:

对象识别问题:识别图片中的主要对象并提出相关问题。

知识问题生成:基于识别对象的百科文本,提出更深入的知识问题。

合并问答:整合视觉和知识问题,形成复杂的两跳问题。

在自动生成问答对时,需要遵循包括问题应仅基于图片信息、答案唯一且明确、基于事实知识及其难度等要求。

同时,需要保留每张图片的首尾问答对作为最终评测集。

第二阶段,质量控制。

包括自动验证

研究团队开发了一种多轮自动化方法验证生成的问答对,重新生成或过滤不符合标准的问题。

通过该过程,该步共保留了 5009 幅图片和 10018 个合格的问答对。

难度筛选

为了提升基准的难度和识别模型的知识边界,作者们过滤掉了简单问题。

具体来说,如果某个问题能被四个强大模型,即 GPT-4o ( 0806 ) 、Claude 3.5 Sonnet、Gemini 1.5 Pro 和 Qwen-VL-Max 全部正确回答,则认为该问题过于简单并被淘汰。

该步保留了 3058 幅图片和 6116 个问答对。

人工验证。

由 23 名标注人员进行数据验证和重写,确保问答对符合标准;6 名工程师进行复核和筛选,确保数据高质量。

主要操作包括:1)验证并重写不符合标准的问题或答案;2)替换不合格或不具代表性的图片;3)通过搜索引擎核实答案的准确性。不符合标准的对被淘汰。

在这个步骤中,仅保留人工标注与自动验证完全一致的问答对。

数据脱敏

为确保数据安全,研究者将最终数据集提交给 6 位安全审计员进行全面审查;每条数据至少由 2 位审计员交叉检查,只有通过审查的数据才被保留。

经过上述处理后,最终挑选了 1100 幅图片和 2200 个问答对作为终版数据集。

o1-preview 表现最佳

Benchmark 构建完成后,团队对 13 个闭源模型和 21 个开源模型的全面评测和分析,并分别给出这些模型在图像主体识别和知识扩展问题上的排名情况。

其中,最佳表现模型为 o1-preview

结果显示,o1-preview 在识别问题和知识扩展问题上表现最佳,其次是 Gemini-2.0-pro-flash 和 Gemini-1.5-pro。

在注重中文能力的模型中,Qwen-VL 系列表现最为突出。

此外,研究团队还观察到三个现象:

知识扩展难于主体识别:模型在知识扩展类问题上的表现与识别问题上的准确率呈正相关。且图像识别准确率通常更高。这表明在一些模型能正确识别对象的情况下,获取深层次扩展知识的能力受限。

知识能力随模型规模提升:一般情况下,同一系列的模型规模越大,表现越优。例如,Qwen2-VL 系列从 2B 增至 72B 后,最终问题的准确率从 29.0% 提升至 50.6%。

幻觉问题仍是挑战:大多数受测模型的错误率(IN)高于不尝试回答的比率(NA),这表明模型更倾向于自信地提供错误信息。幻觉问题仍是多模态大模型领域的一个重要挑战。

同时研究测试显示,ChinesesimpleVQA 具有评估鲁棒性,在使用不同的评测模型时(即使评测模型和受测模型是同一个),受测模型的排名保持稳定。

以下为部分研究发现摘录:

更擅长哪种知识?

Chinese Simple VQA 中的问题通常需要更专业的知识,这也考验了模型的知识深度。

下图给出了 Top10 排名的模型,在 8 个话题下的表现。

结果表明,这些模型在现代建筑、工程技术和科学等主题上表现优异,在其他主题上稍逊一筹。

更缺乏哪种能力?

下图分析了各模型的出错时机。

结果显示,对 o1-preview、Gemini-1.5-pro、Caude3.5-sonet2 和 Qwen-vl-max 来说,主要出错时机(占比超过 50%)来源于知识扩展阶段。

而其他模型,则在图像识别阶段开始表现不佳。

是否过于自信?

一个理想校准模型的置信水平(%)应与预测准确性精确匹配。

研究通过提示模型在回答问题的同时给出其置信度(范围 0 到 100),并探索了模型的事实准确性与置信度之间的关系。

结果显示,o1-preview 表现最佳。

但总体而言,大部分模型的表现远低于理想对齐线,这表明即使回答错误,模型也倾向于过于自信。

是否具有能力边界?

下图曲线展示了随着推理次数增加,模型答案准确性(Best-of-N)的变化。

可以看出,大部分模型在 1 到 30 次尝试范围内,准确性随推理次数增加而明显提高。

然而,当推理次数超过 30 次时,模型表现趋于稳定。

这表明模型难以通过不停的探索而持续找到准确的知识,也代表着模型的知识能力边界。

共 5 大特点

Chinese SimpleVQA 主要有五个特点:

第一,多跳评估。

解耦视觉模型知识能力评估步骤,包括图片主体识别和知识评估。

这种多跳评估策略让使用者可以深入分析视觉大模型(LVLMs)的能力边界和执行机制。

第二,多样性。

评测集共有 2200 条高质量问答对,涵盖了 8 个知识类别及 56 个细分主题,包括 " 自然 "" 科学 "" 工程技术 "" 人文社会 "" 生活、文化与艺术 " 等。

第三,高质量。

ChineseSimpleVQA 拥有严格的构建流程,包括自动验证、难度筛选和人工验证。

共有 23 位标注同学和 6 位算法同学进行质量把控,以及 6 位安全审查员进行数据风险审查。

第四,静态一致性。

ChineseSimpleVQA 具有持久可用性,所有的参考答案将不随时间而发生改变。

第五,易于评估。

所有问题和答案均采用简短格式,方便快速评估。

此外,ChineseSimpleVQA 提供一键评测脚本以协助研究人员开展工作。

One More Thing

该项目核心作者包括顾纪豪,王瑛瑶,不皮。

研究团队来自淘天集团算法技术 - 未来生活实验室,该实验室聚焦大模型、多模态等 AI 技术方向,致力于打造大模型相关基础算法、模型能力和各类 AI Native 应用。

arXiv:

https://arxiv.org/pdf/2502.11718v1

https://arxiv.org/abs/2411.07140

https://arxiv.org/abs/2412.15265

项目主页:

https://chinesesimplevqa.github.io/ChieseSimpleVQA.github.io/

GitHub:

https://github.com/OpenStellarTeam/ChineseSimpleQA

—    —

投稿请工作日发邮件到:

ai@qbitai.com

标题注明【投稿】,告诉我们:

你是谁,从哪来,投稿内容‍

附上论文 / 项目主页链接,以及联系方式哦

我们会(尽量)及时回复你

一键关注 点亮星标

科技前沿进展每日见

一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论