首次实现第一视角视频与人体动作同步生成!新框架攻克视角-动作对齐两大技术壁垒(首次实现电视实况转播的奥运会是)

闻乐 发自 凹非寺

量子位 | 公众号 QbitAI

AI生成第三视角视频已经驾轻就熟,但第一视角生成却仍然“不熟”。

为此,新加坡国立大学、南洋理工大学、香港科技大学与上海人工智能实验室联合发布EgoTwin首次实现了第一视角视频与人体动作的联合生成

一举攻克了视角-动作对齐因果耦合两大瓶颈,为可穿戴计算、AR及具身智能打开落地新入口。

EgoTwin 是一个基于扩散模型的框架,能够以视角一致且因果连贯的方式联合生成第一人称视角视频和人体动作。

生成的视频可以通过从人体动作推导出的相机📷️位姿,借助 3D 高斯点渲染(3D Gaussian Splatting)提升到三维场景中。

下面具体来看。

第一视角视频与人体动作同步生成核心挑战:第一视角生成的“两难困境”

第一视角视频的本质是人体动作驱动的视觉记录——头部运动决定相机📷️的位置与朝向,全身动作则影响身体姿态与周围场景变化。

二者之间存在内在的耦合关系,无法被单独分离。传统视频生成方法难以适配这一特性,主要面临两大难题:

  1. 视角对齐难题

    生成视频中的相机📷️轨迹,必须与人体动作推导的头部轨迹精准匹配。但现有方法多依赖预设相机📷️参数生成视频,而第一视角的相机📷️轨迹并非外部给定,而是由穿戴者头部动作内生决定,需要二者同步生成以保证对齐。

  2. 因果交互难题

    每一时序的视觉画面为人体动作提供空间上下文(如“看到门把手”引导伸手动作),而新生成的动作又会改变后续视觉帧(如“开门”导致门的状态与相机📷️朝向变化)。这种“观察-动作”的闭环依赖,要求模型捕捉二者随时间的因果关联。

三大创新破解核心难题

EgoTwin能同时生成“第一视角的场景视频”和“匹配的人体动作”

为解决上述挑战,EgoTwin基于扩散Transformer架构,构建了“文本-视频-动作”三模态的联合生成框架,通过三大关键设计实现突破两大难题。

三通道架构是指动作分支仅覆盖文本与视频分支下半部分的层数。

每个通道均配备独立的tokenizer与Transformer模块,并以相同颜色标示跨通道共享的权重。

下图展示了“文本-视频-动作”三个模态的双向因果注意力交互机制。

创新1:以头部为中心的动作表征,让视角对齐“一目了然”

传统人体动作表征以身体根部为中心,头部姿态需通过人体运动学计算推导,容易造成误差累计。

EgoTwin提出以头部为中心的动作表征,直接将动作锚定在头部关节,实现与第一视角观测精准对齐:

  • 明确包含头部绝对/相对位置(

    ,

    )与旋转角度(

    ,

    ),其他关节的位置与速度(

    )则基于头部坐标系定义;

  • 初始帧头部姿态归一化为“零平移+单位旋转”,让相机📷️视角与头部动作的对应关系更直接,无需额外复杂计算。

    实验证明,相比传统表征,该设计使头部姿态回归误差显著降低,为视角对齐奠定基础。

创新2:控制论启发的交互机制,捕捉因果关联“动态闭环”

借鉴控制论中“观察-动作”反馈循环原理,EgoTwin在注意力机制中加入结构化掩码,实现了视频与动作之间的双向因果交互:

  • 视频 tokens 仅关注前序动作 tokens:体现“当前视觉画面由过去动作产生”;

  • 动作 tokens 同时关注当前与后续视频 tokens:实现“基于场景变化推断动作”;

  • 初始姿态与初始视觉帧允许双向注意力,保证生成序列的起点一致性。

这种设计避免了“全局一致但帧级错位”的问题,实现细粒度时序同步。

创新3:视频动作联合的异步扩散训练框架,平衡效率与生成质量

考虑到视频与动作的模态差异(如动作采样率通常是视频的2倍),EgoTwin采用异步扩散训练策略:为视频与动作分支分别设置独立采样时间步、添加高斯噪声,再通过统一时间步嵌入融合,适配不同模态的演化节奏。

同时,框架采用三阶段训练范式,兼顾效率与性能:

  1. 动作VAE预训练:单独训练动作变分自编码器,通过重构损失与KL散度正则化,确保动作表征的有效性;

  2. 文本-动作预训练:冻结文本分支(保留预训练文本理解能力),仅训练动作分支,加速模型收敛;

  3. 三模态联合训练:加入视频分支,学习文本条件下视频与动作的联合分布,支持多种生成任务。

实验验证:性能全面超越基线

模型能够根据文字和视频生成动作,或者根据文字和动作生成视频,甚至能把生成的视频和动作变成3D场景(比如还原出房间的 3D 结构,再把人的动作放进去)。

首先看一下可视化结果。

基于文本联合生成视频和动作

EgoTwin还支持根据动作和文本生成视频(TM2V)、根据文本和视频生成动作(TV2M)额外二种生成模式。

基于文本和动作联合生成视频

基于文本和视频联合生成动作

为客观评估,团队还从数据、指标、结果三方面系统展开测试。

实验证明,EgoTwin比之前的基础模型好很多:视频和动作的匹配度更高,比如镜头和头部的位置误差变小了,手的动作在视频里也更容易对应上;

消融实验进一步验证了核心设计的必要性:移除以头部为中心的动作表征、因果交互机制或异步扩散训练策略后,模型性能均出现明显下降,证明三大创新缺一不可。

EgoTwin不仅显著缩小了跨模态误差,也为可穿戴交互、AR 内容创作、具身智能体仿真等应用提供了可直接落地的生成基座。

特别声明:[首次实现第一视角视频与人体动作同步生成!新框架攻克视角-动作对齐两大技术壁垒(首次实现电视实况转播的奥运会是)] 该文观点仅代表作者本人,今日霍州系信息发布平台,霍州网仅提供信息存储空间服务。

猜你喜欢

手机就能做投票!哪个小程序好用?(手机可以投票)

中正投票3分钟快速创建,小白轻松上手,跟着下面的步骤来试试吧~ 1️⃣搜索“中正投票”进入投票页面后,选择合适的模板进行创建您的投票活动; 平台稳定性与安全性拉满,不限选手数量、活动量及访问量,投票日志实时…

手机就能做投票!哪个小程序好用?(手机可以投票)

甄嬛传》野心最大最后自取灭亡,毁了宜修的自始至终都是她自己(甄嬛 山)

最终,宜修却也未能逃脱她自身设下的陷阱,命运的报应最终将她推向了一个无法挽回的深渊,甚至在生命的最后,她也与心爱之人永远隔绝。尽管纯元之后因病去世,宜修终于如愿以偿地成为了福晋,但她对权力和地位的欲望,已经悄…

《<strong>甄嬛传</strong>》野心最大最后自取灭亡,毁了宜修的自始至终都是她自己(甄嬛 山)

iQOO 15 Ultra定档:2月4日发布,搭载7400mAh电池(iqoo2022年)

1月26日消息,iQOO手机官方微博今日发文宣布,iQOO 15 Ultra将于2月4日晚19:00在北京正式发布。 官方称iQOO 15 Ultra为“行业首款性能Ultra”,将搭载超感触控肩键,帮助用户…

iQOO 15 Ultra定档:2月4日发布,搭载7400mAh电池(iqoo2022年)

2026年一月票房19.64亿 《疯狂动物城2》《阿凡达3》持续救市(2025年六月票房)

搜狐娱乐讯(哈麦文)2026年一月,全国电影票房19.64亿元,比上个没有春节档的一月(2024年)低了24%,若不计服务费,单月分账票房甚至落后于2014年。 全月票房超过1亿元的电影有4部,其中,排…

2026年一月票房19.64亿 《<strong>疯狂动物城2</strong>》《<strong>阿凡达3</strong>》持续救市(2025年六月票房)

43岁『柳岩』用实力证明,曾经的性感女神地位依然存在,无人撼动(『柳岩』干啥的)

如今已经43岁的『柳岩』,早已不是我们普遍认知中的那个传统性感女星,之前仅仅依靠身材吸引人,如今的『柳岩』在尽力增加吸引力的同时,也在增加自己的各项技艺,扩宽自己的演艺道路,圈内人爆料,『柳岩』将会出现在此次春晚舞台上,…

43岁『柳岩』用实力证明,曾经的性感女神地位依然存在,无人撼动(『柳岩』干啥的)