当十几台 G1 在舞台 " 下腰 " 打醉拳的时候,你会觉得宇树好像真的已经把表演这件事情卷到头了。
真的很难想象,羊年还能有什么比马年更能震撼人心的表演。哪怕是让机器人在舞台上跳芭蕾(一个比后空翻难无数倍的动作),难道就能给普通人比今天更强的视觉震撼了吗?恐怕也很难说。
如果说今天具身存在一个 " 结构性 " 的矛盾,大概有就是 " 日益增长的姿态控制能力与硬件水平 " 和 " 落地场景不平衡、不充分 " 的发展之间的矛盾。前者带来了人民对具身日益增长的期待,而后者则让人民感到困惑。
对于很多人来说,机器人的 " 技能树 " 好像点错了——它明明该帮我们家务,却代替我们诗词歌赋、载歌载舞。
而这种技能树错配背后,其实有第二个 " 结构性 " 的矛盾:即 " 日益增长的 AI 智能诉求 " 与 " 智能泛化能力不平衡、不充分 " 的发展之间的矛盾。前者让行业的所有从业者都对 AGI 的明天充满光明信心,而后者则让从业者感到现金流的贫穷。
而所谓一切场景与智能的问题,其实本质都是数据与智能的关系。
在具身领域尤其如此。
而具身的数据问题又可以分成两种:
一个是数据规模带来智能难以 scaling;一个是现有智能情况下,样本的学习和泛化能力。
多位具身行业资深人士曾对硅星人表示,具身数据问题属于 " 可解 " 的,但解决方案本质大概率都会是 " 线性 " 的,可能会随着投入的增加获得更多的加速,但 " 指数型 " 爆炸的可能性不高。
究其原因,如果想要通过仿真数据实现高度的通用泛化,生产超高质量仿真数据背后的难度,可能反而高于具身大脑泛化的难度,有点 " 鸡生蛋、蛋生鸡 " 悖论的味道。而互联网数据理论上可行,但不够精准," 画马难画骨 ",对齐难度大。
目前行业里普遍构想的一个技术循环是:
数据采集→数据训练模型→模型进入场景→场景生成数据→更好的数据→更强的模型→更多的场景和数据
这样慢慢可以把数据转起来,等数据多了,具身就可以进入 GPT 时刻了,尽管实际过程可能很缓慢。但即便如此,很多模型依然会卡死在第三步,导致数据飞轮迟迟无法转起来。导致一些实际的技术循环其实是:
数据采集→数据训练模型→泛化能力卡死在 sim to real 上→等待更多的数据
不过最近两个月来,开始陆续有更多的团队加入少样本甚至零样本的泛化能力的路线探索上来,通过不同的路径去解决的智能突破和泛化能力的问题,堪比具身的马年学术春晚:
χ 0 是香港科技大学团队在 2 月 10 日正式发布的技术成果。
此前这个团队在 12 月份的时候曾经拿 χ 0 做了 24 个小时的 " 家务直播 ",主要是抓取、叠、挂衣服,展现了很强大的柔性物体处理能力。
根据后来发布的技术报告显示,χ 0 可以在很少样本(20 小时人类视频)、低算力(8 张 A100)的情况下做出很好的泛化能力。而且根据他们自己的说法,相比于 π 0.5,χ 0 的成功率能提升 250%。
正如如这篇论文的标题," 通过化解分布不一致性,实现资源受限下的鲁棒操控 "。
χ 0 展现的是柔性物体能力,但其实想要解决的是模型学习的鲁棒性难题。而它的解决方案其实就是通过解决在不同模块的数据分布对齐问题。
比如,过去训练出来的模型内参数分布和环境反馈的分布是不同的,就会导致智能的鲁棒性受损。而他们就希望在各个环节上找到这些分布差异,然后对齐它——他们最后选择从训练分布(Ptrain)、模型分布(Qmodel)以及部署分布(Ptest)三个角度出发,从而让流程的各个不同阶段都能实现高效对齐。
https://arxiv.org/pdf/2602.09021
LingBot-VA是蚂蚁灵波在 1 月 30 日官宣的技术成果,官方将它称为具身世界模型,首创了自回归视频 - 动作世界建模框架。也是第一个将世界模型直接控制真机操作的研究成果。
而在此之前,蚂蚁灵波还发布了 LingBot-World 开源视频生成世界模型,做到了将近 10 分钟的无损稳定生成。
与 χ 0 一样,LingBot-VA 展现了更好的鲁棒性:
在 LIBERO 和 RoboTwin 等主流基准测试中,分别以 98.5% 和 92%+ 的成功率大幅领先 π 0.5 等现有模型。在针对具身控制中常见的 " 长时漂移 " 难题,复杂任务成功率超过 98%。
同时也能实现较少样本下的泛化能力:
一个场景仅需 30~50 条演示数据即可完成适配。
但与 χ 0 不同的是,LingBot-VA 团队一开始就选择了一个在语义层面具备较高鲁棒性的自回归世界模型策略。他们的逻辑有点像在模型内置了一个预测未来的大脑。本质就是用一段视频去预测下一段视频的状态。而当模型知道下一段视频流中的状态时,便可以反推并解码成具体的执行动作。
这样一来,由于视频与动作之间存在明确的时间和逻辑关系,便自然就构成了很明确的物理现实世界中的因果关系。所以这个技术成果被命名为:" 面向机器人控制的因果世界建模 "。
这套方案绕过了 VLA 常出现的表征纠缠问题,将动作、视频预测、场景执行情况,直接形成了相互映射的关系。而且在视频生成模型中,天然会具备一定的世界模型知识,因此获得了更好的执行效果。
https://github.com/Robbyant/lingbot-va/blob/main/LingBot_VA_paper.pdf
DreamZero是英伟达团队在 2 月份发布的技术论文,定位世界动作模型(WAM)。
DreamZero 比 LingBot-VA 晚发了十天左右,但思路上与 LingBot-VA 同为世界模型落地真机的路线,因此在一些技术思路上也很相似。而且 Lingbo-VAt 搭配 LingBot-World 一起发布,而与 DreamZero 同期发布的还有 DreamDojo 的通用机器人世界模型。
这两个团队在技术审美和产品发布的逻辑节奏上如此相似,可以说目前在世界模型的探索上,分别都是东西半球的先行者,也相当程度上确认了这条技术路线的可行性。
他们都强调世界模型在运动控制中的作用,强调通过世界模型预测而非简单堆砌数据的重要性,以及受益于世界模型的技术路线,DreamZero 也呈现了较好的泛化性。
官方表示,DreamZero 甚至在一些模型从来没有见过的场景中,DreamZero 也已经可以实现 0 样本泛化。而为了着重强调这一点,他们甚至把自己的技术报告直接叫做," 世界动作模型就是 0 样本泛化的策略"(World Action Models are Zero-shot Policies )
最核心区别在于,LingBot 采用了自回归为主干的策略,而 DreamZero 则采用了以扩散模型直接作为主干的策略。此外,作为各自模型未来的基础设施,DreamDojo 的核心是闭源的,而 LingBot-World 则是完全开源的。
押注 " 非线性 " 增长的物理世界
过去的具身技术路线正在受到越来越多的挑战。
一方面,如本文开头所说,LLM 成功的路径依赖让具身产业长期患有数据饥渴症。而数据规模短时间难以爆发式增长,就导致具身的智能缺乏像 LLM 那样指数级增长的手段;
另一方面,其实以 VLA 为代表的技术路线,本身也在面临更多的质疑。越来越多人开始质疑 VLA 是否可以很好的完成动作操控,是否有能力更好地泛化并突破 Sim to real gap 的魔咒。
而面对这种困局,不同的人想到的解决方案是不同的,也很难在短期达成共识。
以 χ 0 这类研究更像是通过不断升级过去的架构能力,从而在原有的路径上解决问题;而 LingBot-VA、DreamZero 这样的产品,则是寻求一种革命性的范式创新。
今天一个行业内逐步清晰的共识是:如果具身大脑的能力要摆脱数据贫血和泛化瓶颈的地心引力,从而复刻 LLM 的传奇,那就必须有一些新的技术创新。要么,我们在数据层面上大幅突破;要么在架构上另辟蹊径。
而像 VA、DreamZero 这样的工作显然是后者,而他们能给我们的启事是:
如果要在具身复刻 LLM 的 scaling law 奇迹,它未必是要通过平移 scaling law 的方式实现的,也可能是借一个更好的架构来获得原本在 LLM 就已经具备的知识能力。
蚂蚁灵波首席科学家沈宇军在接受采访时表示:
LingBot-VA 和 LingBot-World 的思考其实是 " 一套技术体系的不同侧重 ",双方会耦合地非常深,底层的数据引擎、代码框架和优化方法,都高度共通。
所以,沈宇军的思路可能就是要绕过具身的 scaling 瓶颈,重新去审视和依托新的大模型能力,建设新的具身底层的智能基础设施。
从这个角度来说,蚂蚁灵波和英伟达可谓具身世界模型中 " 拓荒者 " 的角色,未来也不排除会有更多的像英伟达和蚂蚁这样的超级玩家加入。但随着中美 AI 进展生态的不同,未来英伟达会逐渐形成自己的生态,而蚂蚁灵波则会积极引领全球的开源世界模型生态。
但他们的目标都是一致的:
具身不一定就必须要按部就班,物理 AI 也值得一次爆炸式增长的尝试。


登录后才可以发布评论哦
打开小程序可以发布评论哦