首次!世界模型、动作模型融合,全自回归模型WorldVLA来了

首次!世界模型、动作模型融合,全自回归模型WorldVLA来了

岑俊,阿里巴巴达摩院具身智能大模型算法研究员,博士毕业于香港科技大学。研究方向主要是:具身智能 VLA 模型,世界模型。

阿里巴巴达摩院提出了 WorldVLA, 首次将世界模型 (World Model) 和动作模型 (Action Model/VLA Model) 融合到了一个模型中。WorldVLA 是一个统一了文本、图片、动作理解和生成的全自回归模型。

  • 论文标题:WorldVLA: Towards Autoregressive Action World Model
  • 论文地址:https://arxiv.org/pdf/2506.21539
  • 代码地址:https://github.com/alibaba-damo-academy/WorldVLA

研究简介

近年来,视觉 - 语言 - 动作(Vision-Language-Action, VLA)模型的发展成为『机器人』️动作建模研究的重要方向。这类模型通常是在大规模预训练的多模态『大语言模型』(Multimodal Large Language Models, MLLMs)基础上,添加一个动作输出头或专门的动作模块,以实现对动作的生成。MLLMs 在感知和决策方面表现出色,使得 VLA 模型在多种『机器人』️任务中展现出良好的泛化能力。然而,这些模型存在一个显著的局限性:它们往往缺乏对动作本身的深入理解。在现有方法中,动作只是作为输出结果处理,并未被当作输入进行分析和建模。相比之下,世界模型(World Models)能够基于当前观测与动作预测未来的视觉状态,从而同时理解视觉信息和行为动态。尽管具备这一优势,世界模型却无法直接生成动作输出,这导致其在需要显式动作规划的应用场景中存在功能上的空白。

为了解决 VLA 模型与世界模型各自的局限,我们提出 WorldVLA —— 一种基于自回归机制的统一动作与图像理解与生成模型。如下图所示,WorldVLA 使用三个独立的编码器分别处理图像、文本和动作数据。不同模态的 token 被设计为共享相同的词表,从而使得在同一个语言模型架构下可以统一完成跨模态的理解与生成任务。

其中,世界模型部分通过输入动作来生成对应的视觉表示,从而学习环境中的物理动态规律。这种对动作的解读与物理世界的建模对于动作模型的决策至关重要。与此同时,嵌入在 WorldVLA 中的动作模型也反过来增强了对视觉信息的理解,进一步提升世界模型在图像生成方面的准确性。这种双向增强机制使整个系统在理解和生成图像与动作方面更加鲁棒和全面。

此外,已有研究表明,动作分块(action chunking)和并行解码技术对动作模型的性能有显著影响。然而,我们在实验中发现,在自回归模型中连续生成多个动作时会导致性能下降。主要原因在于,预训练的多模态语言模型主要接触的是图像和文本,而对动作的学习较少,因此在动作生成任务中泛化能力有限。而在自回归模型中,后续动作的生成依赖于前面的预测结果,一旦出现错误,便会随时间不断传播放大。为了解决这一问题,我们提出了一种动作注意力掩码策略(action attention masking strategy),在生成当前动作时选择性地屏蔽掉之前的动作信息。这种方法有效缓解了错误累积的问题,在动作分块生成任务中带来了显著的性能提升。

在 LIBERO 基准测试中,我们的 WorldVLA 相比使用相同主干网络的传统动作模型,在抓取成功率上提升了 4%。相较于传统的世界模型,WorldVLA 在视频生成质量上表现更优,FVD(Fréchet Video Distance)指标降低了 10%。这些结果充分说明,将世界模型与动作模型融合所带来的协同增益,验证了图像与动作统一理解与生成框架的优势。在动作分块生成任务中,传统自回归方式会导致抓取成功率下降 10% 到 50%。但引入我们的注意力掩码策略后,性能下降得到了明显缓解,抓取成功率提升了 4% 到 23%。

研究方法

VLA 模型可以根据图像理解生成动作;世界模型可以根据当前图像和动作生成下一帧图像;WorldVLA 将将两者融合,实现图像与动作的双向理解和生成,如下图所示。

WorldVLA 使用独立的编码器分别处理图像、文本和动作,并让这些模态共享同一个词汇表,从而在单一的『大语言模型』架构下实现跨模态的统一建模。这种设计不仅提升了动作生成的准确性,也增强了图像预测的质量。WorldVLA 使用 Action Model 数据和 World Model 数据来训练模型。Action Model 是根据图片输入和文本指令输入来输出动作,数据格式如下:

World Model 根据当前帧图片和动作来生成下一帧图片,数据格式如下:

在一次性输出多个 action 时,使用默认的自回归范式会使得效果变差。原因是动作模态并不在原本多模态大模型的预训练中,因此泛化能力较差,这样生成多个动作时就会有误差累积的问题。为了解决这个问题,WorldVLA 提出了一种 attention mask 策略,使得生成动作时只能看见前面的图片而不能看见前面的动作,从而解决动作累计误差问题,如下图所示。

实验结果

在 LIBERO benchmark 上的实验结果如下图所示,在没有预训练的情况下超越了需要预训练的全自回归模型 OpenVLA。

下图为 action model 的消融实验结果。对比 row2 和 row1 以及 row5 和 row4 可以看出,world model 的加入可以给 action model 带来更好的结果。Row3 可以看出,使用默认的 attention mask 会导致某些任务的成功率下降,但是从 row4 看出,我们提出的 attention mask 可以全面大幅提升任务的成功率。

Action Model 可视化 (Text + Image -> Action)

下图可以看出 WorldVLA 可以根据指令完成对应的动作。

World Model 可视化 (Action + Image -> Image)

下图可以看出 WorldVLA 可以根据动作和图片来生成下一帧图片。

特别声明:[首次!世界模型、动作模型融合,全自回归模型WorldVLA来了] 该文观点仅代表作者本人,今日霍州系信息发布平台,霍州网仅提供信息存储空间服务。

猜你喜欢

PMJ - FLQ防雷器:为充电模块撑起防雷过压“保护伞”》(防雷器原理及作用)

在这些场合选用PMJ - FLQ防雷器,能够为充电模块提供更高级别的防护,确保电力系统的稳定运行。 PMJ - FLQ防雷器以其双重防护功能、精准的场景适配性、便捷的安装方式和可靠的产品品质,成为了保障充电模…

《<strong>PMJ - FLQ防雷器:为充电模块撑起防雷过压“保护伞”</strong>》(防雷器原理及作用)

李维嘉:本是湖南卫视台柱子,现在却过上独居生活,洁癖过于严重(李维嘉搞笑视频快本)

此后三年,这位综艺老将仿佛按下暂停键,直到2023年带着&quot;洁癖狂魔&quot;的新标签回归——擦行李箱轮胎、日拖四次地的操作,让观众认为:这哪是爱干净?或许正如他调侃『林更新』那句:&quot;满腹墨水的都是章

李维嘉:本是湖南卫视台柱子,现在却过上独居生活,洁癖过于严重(李维嘉搞笑视频快本)

任天堂直面会观看人数约 292 万,超苹果iPhone 17Pro系列发布会(任天堂直面会观看地址)

9 月 17 日消息,任天堂 9 月 12 日举办了最新一期 Nintendo Direct直面会,通过全球多平台直播,StreamsCharts 显示峰值观看人数(PV)超 292 万,成为任天…

任天堂直面会观看人数约 292 万,超苹果iPhone 17Pro系列发布会(任天堂直面会观看地址)

披荆斩棘5》幸好陆虎没来录制,苏醒真的在给王栎鑫兜底吗?(披荆斩棘5免费完整版观看)

尽管快乐老咖成为了节目热度与话题的焦点,但不少网友却纷纷表示:还好陆虎没参与这季的录制。在听闻王栎鑫的一番讲述后,众多网友方才恍然大悟,为何在第一轮舞台公演时,王栎鑫与苏醒之间爆发了争吵。 目睹当前状况…

《<strong>披荆斩棘5</strong>》幸好陆虎没来录制,苏醒真的在给王栎鑫兜底吗?(披荆斩棘5免费完整版观看)

SHL-WB27显微镜🔬环形灯怎么选?40粒LED亮度可调小卡灯实测揭秘!(xd202显微镜🔬)

SHL-WB27显微镜🔬环形灯是专为显微镜🔬配套设计的微型环形LED光源,采用40粒高亮灯珠,支持亮度无级调节,适配多种型号显微镜🔬。本文详解其原理、参数、适用场景与选购技巧,帮你轻松避坑,选对光源提升观察清晰度!🔍💡

SHL-WB27显微镜🔬环形灯怎么选?40粒LED亮度可调小卡灯实测揭秘!(xd202显微镜🔬)