量子位 前天
「世界理解」维度看AI视频生成:Veo3和Sora2水平如何?新基准来了
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

近年来,Text-to-Video(T2V)模型取得显著进展——

从静态帧质量到连贯的视频叙事,模型能力大幅提升,尤其是最近 Sora2 的爆火,让人们开始想象,T2V Model 是否已经是一个真正的 " 世界模型 "?。

然而,传统基准主要考察图像质量与语义一致性,并不能系统衡量模型对事件因果、物理规律与常识的理解,而这些正是 " 世界模型 " 的核心能力。

为此,中山大学、香港理工大学、清华大学与 OPPO Research Institute 合作,在港理工 Chair Professor 张磊教授的指导下提出了一种新的评测框架——VideoVerse

设计目标与核心内容

VideoVerse 致力于评估 T2V 模型在事件级时间因果与世界知识(物理、材料、常识)上的表现。团队从两大视角定义了十个评测维度

1、动态(Dynamic):Event Following(事件顺序与因果)、Mechanics(力学)、Interaction(交互)、Material Properties(材料特性)、Camera Control(镜头控制)。

2、静态(Static):Natural Constraints(自然 / 物理约束)、Common Sense(常识)、Attribution Correctness(属性正确性)、2D Layout(二维布局)、3D Depth(三维深度)。

每条 prompt 对应若干二元(Yes/No)评测问题;Event Following 采用事件序列匹配(LCS)度量序列一致性。

最终通过 QA + LCS 的混合评分,得到模型在各维度上的综合表现。

Prompt 构建流程

为确保 prompt 的真实性、多样性与可评测性,团队采用多阶段构建流程:

域内原始语料采样

团队从三大域获取源数据:Daily Life(如 ActivityNet Caption)、Scientific Experiment(高中 / 教科书级实验步骤)、Science Fiction(VidProM 等社区收集)。

目的是覆盖真实世界场景、受控科学实验与超现实 / 想象场景,以测试模型的现实 / 推理 / 泛化能力。

事件与因果结构抽取

团队使用 GPT-4o 等强 LLM 自动抽取视频或文本中的事件序列与潜在因果链,把自然语言描述转换为事件级结构(event1 ⇒ event2 ⇒ event3 …)。

这么做是为了保证 prompt 天然具备事件因果的性质,为 prompt 中的 " 事件跟随 " 评测打下基础。

人工标注与评测维度

独立人类注释者对自动抽取的 raw-prompt 进行语义增补(例如加入材料、镜头动作、隐藏语义)、并为每条 prompt 选择适用的评测维度。

注释者均具备本科及以上学历,定期交叉校验以减少偏差。

这样,可以将自动抽取与人工知识结合,保障 prompt 的多维挑战性与标注质量。

维度二元检测问题生成

基于每条 prompt 的选定维度,自动 / 人工生成与之对应的二元 QA(例如:" 视频中是否出现蓝色海绵?"、" 事件顺序是否为 A   ⇒ B ⇒ C?")。

这些问题用于后续的 VLM 评测,同时屏蔽原始的 prompt,降低评估时的文本幻觉风险。

QA+LCS 的混合评估

评估方面,团队采用QA+LCS 的混合评估,具体分为三个步骤

1、事件跟随(Event Following):用 VLM 提取生成视频的事件序列,再用最长公共子序列(LCS)与地面真值比对,评分反映事件顺序与因果的一致性。

2、维度特定问题:每个维度下的二元问题独立询问 VLM,正确数累加为维度得分。

3、总体得分:LCS 得分 + 各维度二元问题答对数之和。该设计既关注序列逻辑也关注属性 / 物理细节。

隐含语义

不过,能生成一段合理的画面,不代表模型理解了背后的隐含语义。

为此,团队在 VideoVerse 中引入了隐含语义(hidden semantics)。

目前,大多数现有 T2V 评测只关注显式语义(explicit semantics)——即 prompt 中直接描述的事件。

然而,真正的 " 世界理解 " 不仅在于生成 " 可见的动作 ",还在于能否遵循那些未明说但合理存在的语义前提

例如这样一段 prompt:

A man drops an egg on the floor.

这段话的显式语义很清晰:男人掉下鸡蛋。

而隐含语义则是:鸡蛋应破碎、液体应流动、地面应湿润。

如果一个模型能正确生成破碎和液体流动,这说明它真正理解了物理因果,而非仅仅模仿了文字表象。

因此,团队在 VideoVerse 中系统引入了隐含语义,用以检测模型是否能生成这些 " 隐含后果 "。

主要实验与分析

团队在 VideoVerse 上评测了主流开源与闭源模型(如 Wan 系列、HunyuanVideo、SkyReels、Veo-3 、Sora2 等)。有两点关键发现:

1、开源模型在基础维度(属性、2D/3D 布局等)与闭源模型接近,但在世界模型级别(自然约束、常识、事件因果)差距明显。

2、即便是最强闭源模型(Sora2),在 " 隐藏语义跟随 " 与某些物理 / 材料推断上仍有显著缺陷。

一个例子,不同视频模型对于 " 唐三藏骑的马的颜色 " 的理解迥乎不同。

研究发现,Wan 2.1Hunyuan能成功生成相应的描述性内容(如 " 马的皮毛闪闪发光 "),但在事件连贯性(Event Following)和常识理解(Common Sense)方面表现不佳。

相比之下,Veo-3在各个维度上均表现出色。

此外,其他模型还会犯一些一些更加显著的反常识错误。

例如 Hailuo Video 能生成视觉上颇具吸引力的剃须动作,但胡须始终没有刮掉。

再如,Hunyuan Video 能正确生成球形冰块、倒水动作、一块干冰,以及诸如 " 在右侧 " 等二维空间布局关系。

但它对自然约束的理解依然不佳——干冰在室温下并未出现升华现象。

面向 " 世界理解 " 的视频生成未来

综上,VideoVerse 提供了一个完善的面向世界模型的评测框架,旨在推动社区从 " 生成逼真画面 " 向 " 理解并模拟世界 " 转变。

目前,团队已开源数据、评测代码和 leaderboard,他们期待更多研究者能基于 VideoVerse 提出更强的世界模型能力改进方法。

项目主页:

https://www.naptmn.cn/Homepage_of_VideoVerse/

ArXiv:

https://arxiv.org/abs/2510.08398

一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!

—    —

我们正在招聘一名眼疾手快、关注 AI 的学术编辑实习生 

感兴趣的小伙伴欢迎关注  了解详情

点亮星标

科技前沿进展每日见

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

物理 香港理工大学 张磊 规律 高中
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论