首次!世界模型、动作模型融合,全自回归模型WorldVLA来了

首次!世界模型、动作模型融合,全自回归模型WorldVLA来了

今日霍州(www.jrhz.info)©️

岑俊,阿里巴巴达摩院具身智能大模型算法研究员,博士毕业于香港科技大学。研究方向主要是:具身智能 VLA 模型,世界模型。

阿里巴巴达摩院提出了 WorldVLA, 首次将世界模型 (World Model) 和动作模型 (Action Model/VLA Model) 融合到了一个模型中。WorldVLA 是一个统一了文本、图片、动作理解和生成的全自回归模型。

今日霍州(www.jrhz.info)©️

  • 论文标题:WorldVLA: Towards Autoregressive Action World Model
  • 论文地址:https://arxiv.org/pdf/2506.21539
  • 代码地址:https://github.com/alibaba-damo-academy/WorldVLA

研究简介

近年来,视觉 - 语言 - 动作(Vision-Language-Action, VLA)模型的发展成为『机器人』️动作建模研究的重要方向。这类模型通常是在大规模预训练的多模态『大语言模型』(Multimodal Large Language Models, MLLMs)基础上,添加一个动作输出头或专门的动作模块,以实现对动作的生成。MLLMs 在感知和决策方面表现出色,使得 VLA 模型在多种『机器人』️任务中展现出良好的泛化能力。然而,这些模型存在一个显著的局限性:它们往往缺乏对动作本身的深入理解。在现有方法中,动作只是作为输出结果处理,并未被当作输入进行分析和建模。相比之下,世界模型(World Models)能够基于当前观测与动作预测未来的视觉状态,从而同时理解视觉信息和行为动态。尽管具备这一优势,世界模型却无法直接生成动作输出,这导致其在需要显式动作规划的应用场景中存在功能上的空白。

为了解决 VLA 模型与世界模型各自的局限,我们提出 WorldVLA —— 一种基于自回归机制的统一动作与图像理解与生成模型。如下图所示,WorldVLA 使用三个独立的编码器分别处理图像、文本和动作数据。不同模态的 token 被设计为共享相同的词表,从而使得在同一个语言模型架构下可以统一完成跨模态的理解与生成任务。

今日霍州(www.jrhz.info)©️

其中,世界模型部分通过输入动作来生成对应的视觉表示,从而学习环境中的物理动态规律。这种对动作的解读与物理世界的建模对于动作模型的决策至关重要。与此同时,嵌入在 WorldVLA 中的动作模型也反过来增强了对视觉信息的理解,进一步提升世界模型在图像生成方面的准确性。这种双向增强机制使整个系统在理解和生成图像与动作方面更加鲁棒和全面。

此外,已有研究表明,动作分块(action chunking)和并行解码技术对动作模型的性能有显著影响。然而,我们在实验中发现,在自回归模型中连续生成多个动作时会导致性能下降。主要原因在于,预训练的多模态语言模型主要接触的是图像和文本,而对动作的学习较少,因此在动作生成任务中泛化能力有限。而在自回归模型中,后续动作的生成依赖于前面的预测结果,一旦出现错误,便会随时间不断传播放大。为了解决这一问题,我们提出了一种动作注意力掩码策略(action attention masking strategy),在生成当前动作时选择性地屏蔽掉之前的动作信息。这种方法有效缓解了错误累积的问题,在动作分块生成任务中带来了显著的性能提升。

在 LIBERO 基准测试中,我们的 WorldVLA 相比使用相同主干网络的传统动作模型,在抓取成功率上提升了 4%。相较于传统的世界模型,WorldVLA 在视频生成质量上表现更优,FVD(Fréchet Video Distance)指标降低了 10%。这些结果充分说明,将世界模型与动作模型融合所带来的协同增益,验证了图像与动作统一理解与生成框架的优势。在动作分块生成任务中,传统自回归方式会导致抓取成功率下降 10% 到 50%。但引入我们的注意力掩码策略后,性能下降得到了明显缓解,抓取成功率提升了 4% 到 23%。

研究方法

VLA 模型可以根据图像理解生成动作;世界模型可以根据当前图像和动作生成下一帧图像;WorldVLA 将将两者融合,实现图像与动作的双向理解和生成,如下图所示。

今日霍州(www.jrhz.info)©️

WorldVLA 使用独立的编码器分别处理图像、文本和动作,并让这些模态共享同一个词汇表,从而在单一的『大语言模型』架构下实现跨模态的统一建模。这种设计不仅提升了动作生成的准确性,也增强了图像预测的质量。WorldVLA 使用 Action Model 数据和 World Model 数据来训练模型。Action Model 是根据图片输入和文本指令输入来输出动作,数据格式如下:

今日霍州(www.jrhz.info)©️

World Model 根据当前帧图片和动作来生成下一帧图片,数据格式如下:

今日霍州(www.jrhz.info)©️

在一次性输出多个 action 时,使用默认的自回归范式会使得效果变差。原因是动作模态并不在原本多模态大模型的预训练中,因此泛化能力较差,这样生成多个动作时就会有误差累积的问题。为了解决这个问题,WorldVLA 提出了一种 attention mask 策略,使得生成动作时只能看见前面的图片而不能看见前面的动作,从而解决动作累计误差问题,如下图所示。

今日霍州(www.jrhz.info)©️

实验结果

在 LIBERO benchmark 上的实验结果如下图所示,在没有预训练的情况下超越了需要预训练的全自回归模型 OpenVLA。

今日霍州(www.jrhz.info)©️

下图为 action model 的消融实验结果。对比 row2 和 row1 以及 row5 和 row4 可以看出,world model 的加入可以给 action model 带来更好的结果。Row3 可以看出,使用默认的 attention mask 会导致某些任务的成功率下降,但是从 row4 看出,我们提出的 attention mask 可以全面大幅提升任务的成功率。

今日霍州(www.jrhz.info)©️

Action Model 可视化 (Text + Image -> Action)

下图可以看出 WorldVLA 可以根据指令完成对应的动作。

今日霍州(www.jrhz.info)©️

今日霍州(www.jrhz.info)©️

今日霍州(www.jrhz.info)©️

World Model 可视化 (Action + Image -> Image)

下图可以看出 WorldVLA 可以根据动作和图片来生成下一帧图片。

今日霍州(www.jrhz.info)©️

今日霍州(www.jrhz.info)©️

今日霍州(www.jrhz.info)©️

特别声明:[首次!世界模型、动作模型融合,全自回归模型WorldVLA来了] 该文观点仅代表作者本人,今日霍州系信息发布平台,霍州网仅提供信息存储空间服务。

猜你喜欢

新电子榨菜古装下饭喜剧《芬芳喜事》笑疯了,原班人马太对味了!(传统榨菜籽油怎样榨)

甜宠部分也一点不腻,四喜骗经坎碧螺春是“仙女茶”,结果经坎偷偷加蜂蜜害她被蜜蜂追了三条街,连吵架都像说相声。女主从“独身主义”到在婚姻中找到真心,经家从一盘散沙到共同进退,简直是古代版《家有好兆头》! 连艾…

新电子榨菜古装下饭喜剧《<strong>芬芳喜事</strong>》笑疯了,原班人马太对味了!(传统榨菜籽油怎样榨)

哈里王子做客美国脱口秀,表态不排除未来入籍美国(哈里王孑)

作为两个年幼孩子的父亲,哈里表示,由于自己亲身体验过这些问题,未来将会更加谨慎,不会轻易让孩子接触『社交媒体』。他补充道:“问题是,许多家长并没有意识到这一点。 然而,在本月早些时候,梅根在『社交媒体』发布了一段万…

哈里王子做客美国脱口秀,表态不排除未来入籍美国(哈里王孑)

郑绪岚外籍婚姻波折,回国再遭情变,命运多舛引关注!(郑绪岚的)

在这篇文章中,我们将深入探讨她的音乐之路、人生选择以及这些选择背后的深层含义。 最后,让我们来思考一个问题:如果我们是郑绪岚,我们会如何平衡事业与爱情的关系?她的音乐之路和人生经历让我们看到了追求梦想和爱情的…

郑绪岚外籍婚姻波折,回国再遭情变,命运多舛引关注!(郑绪岚的)

盘点10对真情侣短剧演员,左一和陈刚好可惜,其他九对都好磕好甜(5对情侣真情大考验)

从『社交媒体』上偶尔流露出的合照,到共同出席活动的默契相视,这对CP的甜蜜指数直线飙升,令人不停好奇,他们的爱情是否比剧中的故事还要动人? 还有周禹天与鲍治玥,在离婚后被疯批少爷宠上天中的甜蜜互动,以及幸好还有你…

盘点10对真情侣短剧演员,左一和陈刚好可惜,其他九对都好磕好甜(5对情侣真情大考验)

耀東400呎小宅:平面與3D視覺的完美融合(耀东传动机械有限公司)

在香港寸土寸金的核心地带,400呎的小户型如何做到极致利用?家安团队通过独特的平面图与3D效果图,巧妙化解了狭小空间的布局难题。本文将为你解析这一经典案例的设计亮点及背后原理,探讨其在现代都市中的现实意义。

耀東400呎小宅:平面與3D視覺的完美融合(耀东传动机械有限公司)