量子位 01-05
华为开源7B多模态模型,视觉定位和OCR能力出色,你的昇腾端侧“新甜点”来了
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

7B 量级模型,向来是端侧部署与个人开发者的心头好。

轻量化特性让它能灵活适配各类终端场景,而强劲性能又能覆盖图像信息抽取、文档理解、视频解析、物体定位等高频需求。

刚刚,华为重磅推出开源新玩家 openPangu-VL-7B,直接瞄准这一核心场景精准发力。

昇腾原生的模型结构,让 openPangu-VL-7B 的推理性能极具性价比:

720P 图像在单张 Ascend Atlas 800T A2 卡上首字模型推理时延(ViT 与 LLM 模型时延和)仅 160 毫秒,能够进行 5FPS 的实时推理;训练阶段的 MFU 更是达到 42.5%。

更值得关注的是,模型在预训练阶段完成了 3T+tokens 的无突刺集群长稳训练,为开发者使用昇腾集群提供了极具价值的实践参考。

openPangu-VL-7B 在通用视觉问答、文档图表理解 &OCR、视觉定位、短视频理解等核心任务上表现突出,在开源榜单中力压同量级模型,展现出强悍的综合实力。

官方提供的 cookbook 也展现了模型在这些领域的优异能力。

比如我们给模型一张菜品图,让模型找到一共有多少个樱桃番茄,模型能够点出所有的位置并正确计数。

给模型一张年报截图,模型也能将其转变为 markdown 格式,省去了人工摘录的痛苦。

除了亮眼的榜单成绩和针对昇腾的训推优化,技术报告中还披露了若干核心技术细节,揭秘模型高性能背后的设计巧思:

1)适配昇腾的高性能视觉编码器

业界传统视觉编码器多针对 GPU 架构设计,没有充分发挥昇腾硬件优势。

团队通过大量先导实验与性能分析,找到模型结构的最优平衡点——相同参数量下,该视觉编码器在昇腾芯片上的吞吐较使用窗注意力的 ViT-H 系列编码器提升 15%。

同时,采用多标签对比学习框架,让模型具备更优的细粒度理解能力,为后续 VLM 训练中的视觉定位数据学习筑牢基础。

2)样本均衡的损失设计

为解决不同长度训练样本的学习均衡问题,openPangu-VL-7B 创新采用 " 加权逐样本损失 + 逐令牌损失 " 的混合训练方案,加权系数由令牌位置和样本重要性动态决定。

这一设计让模型在训练中既能吃透长回复数据,也不忽视短回复信息,避免 " 顾此失彼 ",消融实验已充分验证其有效性。

3)带填充的定位数据格式

区别于业界主流的 0-999 定位方案,openPangu-VL-7B 采用 000-999 千分位带填充相对坐标完成视觉定位。

整齐的三个 token 进行位置回归,不仅降低了模型学习难度,更显著提升了格式遵从性,让定位任务的精度和效率同步提升。

此外,技术报告还深入探索了预训练数据配比、位置编码、模型融合等关键策略,为开发者提供了全面的技术细节参考。

对于昇腾使用者而言,openPangu-VL-7B 的开源无疑是一大利好。

这款兼具轻量化、高性能与强通用性的多模态模型,既为端侧开发和个人使用提供了新选择,也将进一步丰富昇腾生态的应用场景,为创新注入新动力。

模型链接:

https://ai.gitcode.com/ascend-tribe/openPangu-VL-7B

技术报告:

https://ai.gitcode.com/ascend-tribe/openPangu-VL-7B/blob/main/doc/technical_report.pdf

* 本文系量子位获授权刊载,观点仅为原作者所有。

一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!

—    —

点亮星标

科技前沿进展每日见

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

开源 华为 短视频 轻量化
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论