首次实现第一视角视频与人体动作同步生成!新框架攻克视角-动作对齐两大技术壁垒(首次实现电视实况转播的奥运会是)

闻乐 发自 凹非寺

量子位 | 公众号 QbitAI

AI生成第三视角视频已经驾轻就熟,但第一视角生成却仍然“不熟”。

为此,新加坡国立大学、南洋理工大学、香港科技大学与上海人工智能实验室联合发布EgoTwin首次实现了第一视角视频与人体动作的联合生成

一举攻克了视角-动作对齐因果耦合两大瓶颈,为可穿戴计算、AR及具身智能打开落地新入口。

EgoTwin 是一个基于扩散模型的框架,能够以视角一致且因果连贯的方式联合生成第一人称视角视频和人体动作。

生成的视频可以通过从人体动作推导出的相机📷️位姿,借助 3D 高斯点渲染(3D Gaussian Splatting)提升到三维场景中。

下面具体来看。

第一视角视频与人体动作同步生成核心挑战:第一视角生成的“两难困境”

第一视角视频的本质是人体动作驱动的视觉记录——头部运动决定相机📷️的位置与朝向,全身动作则影响身体姿态与周围场景变化。

二者之间存在内在的耦合关系,无法被单独分离。传统视频生成方法难以适配这一特性,主要面临两大难题:

  1. 视角对齐难题

    生成视频中的相机📷️轨迹,必须与人体动作推导的头部轨迹精准匹配。但现有方法多依赖预设相机📷️参数生成视频,而第一视角的相机📷️轨迹并非外部给定,而是由穿戴者头部动作内生决定,需要二者同步生成以保证对齐。

  2. 因果交互难题

    每一时序的视觉画面为人体动作提供空间上下文(如“看到门把手”引导伸手动作),而新生成的动作又会改变后续视觉帧(如“开门”导致门的状态与相机📷️朝向变化)。这种“观察-动作”的闭环依赖,要求模型捕捉二者随时间的因果关联。

三大创新破解核心难题

EgoTwin能同时生成“第一视角的场景视频”和“匹配的人体动作”

为解决上述挑战,EgoTwin基于扩散Transformer架构,构建了“文本-视频-动作”三模态的联合生成框架,通过三大关键设计实现突破两大难题。

三通道架构是指动作分支仅覆盖文本与视频分支下半部分的层数。

每个通道均配备独立的tokenizer与Transformer模块,并以相同颜色标示跨通道共享的权重。

下图展示了“文本-视频-动作”三个模态的双向因果注意力交互机制。

创新1:以头部为中心的动作表征,让视角对齐“一目了然”

传统人体动作表征以身体根部为中心,头部姿态需通过人体运动学计算推导,容易造成误差累计。

EgoTwin提出以头部为中心的动作表征,直接将动作锚定在头部关节,实现与第一视角观测精准对齐:

  • 明确包含头部绝对/相对位置(

    ,

    )与旋转角度(

    ,

    ),其他关节的位置与速度(

    )则基于头部坐标系定义;

  • 初始帧头部姿态归一化为“零平移+单位旋转”,让相机📷️视角与头部动作的对应关系更直接,无需额外复杂计算。

    实验证明,相比传统表征,该设计使头部姿态回归误差显著降低,为视角对齐奠定基础。

创新2:控制论启发的交互机制,捕捉因果关联“动态闭环”

借鉴控制论中“观察-动作”反馈循环原理,EgoTwin在注意力机制中加入结构化掩码,实现了视频与动作之间的双向因果交互:

  • 视频 tokens 仅关注前序动作 tokens:体现“当前视觉画面由过去动作产生”;

  • 动作 tokens 同时关注当前与后续视频 tokens:实现“基于场景变化推断动作”;

  • 初始姿态与初始视觉帧允许双向注意力,保证生成序列的起点一致性。

这种设计避免了“全局一致但帧级错位”的问题,实现细粒度时序同步。

创新3:视频动作联合的异步扩散训练框架,平衡效率与生成质量

考虑到视频与动作的模态差异(如动作采样率通常是视频的2倍),EgoTwin采用异步扩散训练策略:为视频与动作分支分别设置独立采样时间步、添加高斯噪声,再通过统一时间步嵌入融合,适配不同模态的演化节奏。

同时,框架采用三阶段训练范式,兼顾效率与性能:

  1. 动作VAE预训练:单独训练动作变分自编码器,通过重构损失与KL散度正则化,确保动作表征的有效性;

  2. 文本-动作预训练:冻结文本分支(保留预训练文本理解能力),仅训练动作分支,加速模型收敛;

  3. 三模态联合训练:加入视频分支,学习文本条件下视频与动作的联合分布,支持多种生成任务。

实验验证:性能全面超越基线

模型能够根据文字和视频生成动作,或者根据文字和动作生成视频,甚至能把生成的视频和动作变成3D场景(比如还原出房间的 3D 结构,再把人的动作放进去)。

首先看一下可视化结果。

基于文本联合生成视频和动作

EgoTwin还支持根据动作和文本生成视频(TM2V)、根据文本和视频生成动作(TV2M)额外二种生成模式。

基于文本和动作联合生成视频

基于文本和视频联合生成动作

为客观评估,团队还从数据、指标、结果三方面系统展开测试。

实验证明,EgoTwin比之前的基础模型好很多:视频和动作的匹配度更高,比如镜头和头部的位置误差变小了,手的动作在视频里也更容易对应上;

消融实验进一步验证了核心设计的必要性:移除以头部为中心的动作表征、因果交互机制或异步扩散训练策略后,模型性能均出现明显下降,证明三大创新缺一不可。

EgoTwin不仅显著缩小了跨模态误差,也为可穿戴交互、AR 内容创作、具身智能体仿真等应用提供了可直接落地的生成基座。

特别声明:[首次实现第一视角视频与人体动作同步生成!新框架攻克视角-动作对齐两大技术壁垒(首次实现电视实况转播的奥运会是)] 该文观点仅代表作者本人,今日霍州系信息发布平台,霍州网仅提供信息存储空间服务。

猜你喜欢

消防车挖掘机儿童雨伞:新款小学生幼儿园晴雨两用自动太阳伞解析(消防车挖掘机视频表演动画视频)

本词条全面介绍消防车挖掘机儿童雨伞,包括定义、特点、应用场景和技术原理。它结合了消防车和挖掘机的外观设计元素,适用于小学生和幼儿园儿童,具有晴雨两用、自动开合功能。文中还探讨了其发展历程、技术特性和市场定位。

消防车挖掘机儿童雨伞:新款小学生幼儿园晴雨两用自动太阳伞解析(消防车挖掘机视频表演动画视频)

锻造“尖刀”勇闯“无人区” 湖北向科技强省加速跑

省委十二届十一次全会通过的湖北“十五五”规划《建议》,全面部署深入实施科创引领战略,首次提出“统筹推进教育强省、科技强省、人才强省建设”的目标,要加快推动科技创新和产业创新深度融合,加快打造具有全国影响力的科…

锻造“尖刀”勇闯“无人区” 湖北向科技强省加速跑

钢铁百科:12Cr1MoV钢板详细参数及具体指标介绍(12cr是什么钢)

在工业制造的广阔领域中,高温高压环境对材料性能提出了严苛挑战。石油化工:在石油化工行业中,12Cr1MoV钢板用于制造高温高压容器、管道和阀门等设备。 未来,随着材料科学和制造工艺的不断进步,12Cr1M…

钢铁百科:12Cr1MoV钢板详细参数及具体指标介绍(12cr是什么钢)

头皮也会“闹脾气” 长痘痘可能是身体在“打小报告”

头皮突然冒出的痘痘,像藏在头发里的小警报,不仅带来刺痛感,还让人忍不住总想触碰。头上长痘痘并非单一因素所致,而是毛囊健康、油脂分泌、生活习惯等多重因素交织的结果。了解这些背后的原因,才能从根源上解决头皮痘痘的困扰,让头皮重获清爽健康

头皮也会“闹脾气” 长痘痘可能是身体在“打小报告”

患糖尿病💊的症状有哪些

糖尿病的症状主要包括多饮、多尿、多食、体重下降和视力模糊等。 多饮是糖尿病早期常见的症状,由于血糖浓度升高导致血浆渗透压增高,刺激下丘脑口渴中枢引发持续性口干。患者常伴有排尿频率增加,每日饮水量可能超过3000毫升

患糖尿病💊的症状有哪些