行业首个具备 " 高刷 " 视频理解能力的多模态模型MiniCPM-V 4.5的技术报告正式发布!
报告提出统一的 3D-Resampler 架构实现高密度视频压缩、面向文档的统一 OCR 和知识学习范式、可控混合快速 / 深度思考的多模态强化学习三大技术。
基于这些关键技术,MiniCPM-V 4.5 在视频理解、图像理解、OCR、文档解析等多项任务上达到同级 SOTA 水平,不仅以 8B 的参数规模超越 GPT-4o-latest 和 Qwen2.5-VL-72B,更在推理速度上具有显著优势。
模型一经开源,就广受社区好评,并直接登上 HuggingFace Trending TOP2。
接下来,就和我们一起看看报告里讲了什么。
研究背景
随着多模态大模型的迅速发展,其在模型架构、数据工程和训练方法上的高昂成本和效率瓶颈,正成为其广泛应用和技术迭代的核心障碍。
而在移动设备和边缘计算场景中,如何在保持出色性能的同时实现高效推理,给多模态模型研究和应用提出了更加严峻的挑战。
总的来说,MiniCPM-V 4.5 通过系统性的技术创新攻克三大效率难题:
针对模型架构:为解决处理图像与视频时产生的海量视觉 Token,团队采用了统一 3D-Resampler 架构,大幅降低了视觉编码的 Token 开销,实现最高96 倍的压缩率。在 VideoMME 上,团队以相比 Qwen2.5-VL7B 仅46.7%的显存和8.7%的时间开销,获得了 30B 以下参数量模型的最优性能。
针对训练数据:为解决多模态文档处理中对不可靠外部解析工具的依赖和 OCR 数据工程设计难题,团队提出了统一文档 OCR 与知识学习的新范式,使模型能直接从复杂文档图像中学习,显著降低了数据噪声和数据工程复杂度。最终在 OmniDocBench 上取得了通用 MLLM 中的最好表现。
针对训练方法:为平衡深度思考与日常即时使用两种需求,团队使用了混合强化学习策略。该策略在节省 30% 训练开销的同时实现了强大的思考能力,并且推理耗时仅为同规格深度思考模型的42.9%-68.2%,在快速响应与全面分析间取得了可控平衡。
统一的 3D-Resampler 架构实现高密度视频压缩
Takeawys:
时间 - 空间 统一联合压缩可充分挖掘多模态数据的冗余性,实现更的高视觉压缩率。
统一的视觉架构可促进感知能力从图像到视频的无缝迁移。
传统多模态模型在处理视频时面临的核心挑战是性能与效率的权衡。
为突破这一困境,MiniCPM-V 4.5 引入了创新的3D-Resampler 架构。它不再将视频视为独立的静态帧序列,而是同时在时空方向上压缩,利用连续帧间的高度冗余信息,实现了革命性的效率提升。
该架构能将 6 个连续的视频帧(448 × 448 分辨率)高效压缩为仅 64 个视觉 Token,实现了惊人的96 倍视觉压缩率,而多数主流模型处理同等数据需消耗 1,536Token。这一设计让模型在不增加语言模型计算成本的前提下,能够感知和处理更多视频帧,且能获得更好的视频理解能力。
更重要的是,3D-Resampler 实现了图像与视频处理的统一编码,确保了知识和能力的无缝迁移。
一个有力的证明是,尽管没有经过专门的视频 OCR 数据训练,模型依然展现出良好的视频 OCR 能力。
同时,由于统一的架构设计和参数共享,从 2D 扩展至 3D-Resampler 仅需一个轻量化的 SFT 阶段,极大地降低了训练成本。
高效知识学习:面向文档的统一 OCR 和知识学习范式
Takeawys:
对文档图像文本进行不同程度的可见性扰动,即可将知识学习、OCR 能力高效地统一到单个学习目标中。
多模态模型在处理文档时,普遍采用两种独立的低效方法。
一方面,文档知识学习高度依赖脆弱的外部解析工具,不仅效率低下,解析错误还常常引入噪声,需要大量数据工程进行修复。
另一方面,OCR 能力学习虽受益于数据增强,但过度的图像扰动又会导致文字无法辨认,反而诱发模型产生幻觉。
对于以上困难,团队提出一条核心洞察:
文档知识获取和文字识别的关键区别,仅在于图像中文字的可见度。
基于此,MiniCPM-V 4.5 使用了一种统一的 OCR 和知识学习范式:对文档图像中的文字区域施加不同程度的损坏,利用 " 从损坏图像中重建原文 " 这一学习目标同时学习两种任务。如下图所示,通过控制损坏程度,团队创造了三种任务:
轻微损坏 ( 可靠 OCR 训练 ) :文字尚可辨认,模型专注于学习准确、鲁棒的文字识别。
中度损坏 ( 综合推理 ) :字符变得模糊,模型可以结合框内视觉线索和上下文进行综合推理和重建原文。
高度损坏 ( 知识学习 ) :文字被完全抹除,模型被强制依赖上下文图表和文字以及模型内部知识来重建原文,从而实现真正的文档级理解。
这一方法彻底摆脱了对外部解析器的依赖,杜绝了其引入的噪声和工程负担。
同时,它智能地将知识学习和 OCR 目标无缝融合在同一训练批次中,极大地提升了数据利用率和训练效率。
团队在轻量训练设置下对该学习范式进行了消融验证,结果说明面向文档的统一 OCR 和知识学习范式有效提升了模型在文档理解、知识推理、文字识别上的能力:
高效强化学习:可控混合快速 / 深度思考的多模态强化学习
MiniCPM-V 4.5 通过混合强化学习方法,实现了快速思考和深度思考两种模式的平衡优化。
快速思考模式面向高频日常使用场景,提供高效的推理体验;深度思考模式则专注于复杂任务的深入分析。
模型通过少量高难度、高质量的推理样本进行冷启动,快速掌握深度思考所必需的反思与回溯能力。
进入强化学习阶段,两种模式被同时优化,不仅显著增强了深度思考模式的性能,更实现了两种模式间推理能力的交叉泛化。模型在节省约 30% 采样开销的前提下,仍能达到和仅深思考强化学习的模型相当的表现。
同时,团队引入了 RLPR 与 RLAIF-V 两项技术:
RLPR 解决了通用域问题的开放式回答(如答案表述相对复杂、含物理单位等)难以获得可靠奖励信号的痛点,从模型生成正确答案的概率中获得奖励信号(probability-based reward, PR)。
随着训练步数增加,结合 PR 训练相比常规训练方法的优势会逐渐扩大 .
RLAIF-V 有效抑制了模型的幻觉现象,通过逐个检验模型输出答案中事实陈述的可靠度并构建偏好数据用于 DPO,提升了多种多模态理解任务的可靠性。
评测结果
MiniCPM-V 4.5 在 OpenCompass 综合评测中取得了 77.0 的平均分。该评测涵盖了 8 个主流多模态基准的综合指标。
尽管仅有 8B 参数规模,模型在视觉语言能力上超越了 GPT-4o-latest 等广泛使用的专有模型,以及 Qwen2.5-VL72B 等强大的开源模型,成为 30B 参数以下性能最佳的开源多模态大模型。
MiniCPM-V 4.5 在提供 SOTA 级多模态表现的同时,具有最佳的推理效率和最低的推理开销。
在混合思考模式下,MiniCPM-V 4.5 在推理耗时仅为同规格深度思考模型的 42.9%-68.2% 的同时获得了更好的 OpenCompass 分数。
同时,得益于高密度视频压缩技术,在覆盖短、中、长三种类型的视频理解评测集 Video-MME 上,MiniCPM-V 4.5 时间开销(未计算模型抽帧时间)仅为同级模型的 1/10。
模型实测效果展示
One more thing
作为 MiniCPM-V 系列的最新成果,MiniCPM-V 4.5 系统性地从架构、数据和训练三大维度为解决多模态大模型的效率瓶颈提供了一条可行路径。
HuggingFace 大佬表示,仅有 8B 参数的模型也能擅长事实纠正和思考,确实值得更多的关注。
作为清华大学自然语言处理实验室和面壁智能联合开发的系列模型,MiniCPM-V 和 MiniCPM-o 系列已经获得了广泛的学术和产业认可。
技术报告地址:https://github.com/OpenBMB/MiniCPM-V/blob/main/docs/MiniCPM_V_4_5_Technical_Report.pdf
GitHub:https://github.com/OpenBMB/MiniCPM-o
HuggingFace:https://huggingface.co/openbmb/MiniCPM-V-4_5
ModelScope:https://www.modelscope.cn/models/OpenBMB/MiniCPM-V-4_5
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!
— 完 —
点亮星标
科技前沿进展每日见
登录后才可以发布评论哦
打开小程序可以发布评论哦