打破跨模态干扰,快手东北大学联合提出统一多模态框架,横扫多模态检索基准

UNITE团队 投稿

量子位 | 公众号 QbitAI

多模态检索是信息理解与获取的关键技术,但其中的 跨模态干扰问题一直是一大难题。

可行的解决办法是 构建一种统一的多模态表示方式,为此,来自快手与东北大学的研究人员推出了 多模态统一嵌入框架——UNITE。

今日霍州(www.jrhz.info)©️

UNITE的核心目标,就是构建一个能同时处理文本、图像、视频及其融合模态输入的统一嵌入器。

它从数据策划与训练机制两个关键视角出发,用对比学习的机制重新定义了统一多模态表示学习的范式。

在细粒度检索、指令检索等多个评测中,UNITE框架都斩获了最佳成绩。

今日霍州(www.jrhz.info)©️

模态感知对比学习,缓解跨模态干扰

在多模态检索任务中,不同模态(文本、图像、视频)天然存在分布差异。

如果在训练时将所有模态混合进行对比学习,会导致表示空间产生语义扭曲或干扰噪声,影响模型对各模态语义的准确建模。

为了解决这一挑战,UNITE团队提出了 Modal-Aware Masked Contrastive Learning(MAMCL)这一对比学习机制,能显著缓解跨模态“相互干扰”。

今日霍州(www.jrhz.info)©️

在传统InfoNCE损失下,模型会尝试最大化正样本对之间的相似度,并最小化其与负样本之间的相似度:

但这种方式不能区分模态组合,例如,一个query的正样本为文本模态,但其负样本可能是图像、视频或者其他模态组合。这可能导致模型用图像来学文本相似度,产生模态冲突。

MAMCL的核心思想是模态掩码约束,也就是只在与当前query目标模态一致的负样本中进行对比,从而避免模态间的错误竞争。

给定一个批次中个query,每个query()对应一个正样本和个负样本,构造相似度矩阵:

其中是第个候选样本,是温度系数。

接下来引入模态掩码矩阵,用于标记候选样本与正样本模态是否一致:

其中表示提取候选样本的模态标签(例如 text, image, video, text+video)。

然后,构造模态感知掩码相似度矩阵:

这一步确保在计算损失时,仅考虑模态一致的样本

最终,MAMCL损失定义为(p是当前query对应的正样本索引):

为了平衡泛化能力与判别能力,UNITE采用了“检索适应 + 指令微调”的两阶段训练方案:

  • 检索适应阶段,使用text-text、text-image、text-video等多模态数据训练模型的基本检索能力,同时引入高粒度视频-文本数据,显著提升模型的细粒度区分能力;

  • 指令微调阶段,基于MMEB、CoVR等复杂多模态指令任务训练,增强模型的指令遵循能力和扩展性。

多个评测中斩获最佳成绩

在细粒度检索、指令检索等多个评测中,UNITE框架都斩获了最佳成绩。

图像-文本检索任务中,在ShareGPT4V、Urban1K和DOCCI上,UNITE显著超越E5-V和VLM2Vec等模型;

今日霍州(www.jrhz.info)©️

视频-文本检索方面,UNITE的2B模型在CaReBench三个子任务(General/Spatial/Temporal)中的General和Spatial里超越了前SOTA,7B模型以显著领先水平刷新当前最好表现。

UNITE 7B在CaReBench上分别达到86.0,86.9,86.5,84.8,52.4,55.4。

今日霍州(www.jrhz.info)©️

指令检索任务里,作者的UNITE系列模型也在多个数据集上表现出色。

今日霍州(www.jrhz.info)©️

具体来说,在涵盖分类、VQA、检索、定位四类任务共36个数据集的MMEB Benchmark中,UNITE 7B达到了最优性能70.3,超越了更大规模的模型mmE5 11B (69.8) 和IDMR 26B (69.2)。

今日霍州(www.jrhz.info)©️

在合成视频检索任务CoVR上,UNITE 2B和UNITE 7B达到了69.1和72.5,均明显领先于现有SOTA模型(60.1)。

今日霍州(www.jrhz.info)©️

为验证其通用性,团队还在多个标准跨模态检索任务上进行了评估。在Flickr30K、MSR-VTT、MSVD、DiDeMo任务上,展现了良好的通用表征能力。

今日霍州(www.jrhz.info)©️

综合来看,UNITE支持文本、图像、视频及融合模态内容,并展现了综合最优性能。

其可视化结果如下:

今日霍州(www.jrhz.info)©️

另外在实验过程当中,作者还有三个关键发现。

一是视频-文本数据具备“统一模态”的核心能力

具体来说,视频-文本对数据在所有配置中表现最为突出,不仅在视频检索任务中遥遥领先(如MSR-VTT、MSVD),甚至在图文检索任务中也超越了基于图像-文本对训练的模型。

二是 指令类任务更依赖文本主导的数据支撑——

尽管视频-文本对数据在一般检索任务中表现出色,但在复杂检索指令跟随类任务(如MMEB、CoVR)中,其优势反而不明显。

这类任务需要模型理解长文本、复杂逻辑或多阶段指令,研究认为,Text–Text数据提升了语言理解与逻辑构建能力,而Text–Image数据提供精准的视觉语义映射,利于模态对齐。

最后,细粒度Text-Video样本的添加策略影响巨大,直接在第一阶段“检索适应”中融合细粒度视频-文本样本,能带来整体性能最优解,相比传统“先对齐后微调”的做法更加有效且高效。

更多方法和实验细节,请参照论文。

论文链接:https://arxiv.org/pdf/2505.19650

代码链接:https://github.com/friedrichor/UNITE

项目链接:https://friedrichor.github.io/projects/UNITE

模型/数据链接:https://huggingface.co/collections/friedrichor/unite-682da30c4540abccd3da3a6b

特别声明:[打破跨模态干扰,快手东北大学联合提出统一多模态框架,横扫多模态检索基准] 该文观点仅代表作者本人,今日霍州系信息发布平台,霍州网仅提供信息存储空间服务。

猜你喜欢

韩国『娱乐圈』️到底有多脏?千面影帝河正宇父子告诉你(韩国,『娱乐圈』️)

与金容建的戏骨形象形成鲜明对比的是他的儿子,河正宇。丑闻曝光后,河正宇的经纪公司辩解说注射只是为了治疗疤痕,根本没有滥用,但这一说法显得荒谬可笑。 河正宇与金容建父子的塌房,并非韩国『娱乐圈』️的个别事件…

韩国『娱乐圈』️到底有多脏?千面影帝河正宇父子告诉你(韩国,『娱乐圈』️)

金瓶梅》杨思敏版:一场情色外衣下的女性♀️悲歌,为何30年后仍让人心颤?(金瓶梅电视剧全集电视剧)

三十年光阴淬炼,这部曾被贴上“情欲”标签的作品,逐渐显露出超越时代的厚重:杨思敏在名利场与烟火气中的人生沉浮,与潘金莲在封建罗网中从挣扎到覆灭的宿命,形成了跨越银幕与现实的互文;而影片中那群被时代裹挟的女性♀️,…

《<strong>金瓶梅</strong>》杨思敏版:一场情色外衣下的女性♀️悲歌,为何30年后仍让人心颤?(金瓶梅电视剧全集电视剧)

厂房改造修复的必要性:为工业未来打下坚实基础(厂房改造方案怎么写)

通过改造修复,可以引进环保设备和技术,减少生产过程中的污染排放,降低对环境的负面影响。为了提升生产效率和保障员工安全,该化工厂决定对厂房进行改造修复。 综上所述,厂房改造修复对于提升生产效率、保障员工安全与健…

厂房改造修复的必要性:为工业未来打下坚实基础(厂房改造方案怎么写)

『古力娜扎』与大5岁姐姐最新同框,姐妹俩长得好像,都又高又漂亮(『古力娜扎』门)

一张是她们一家人在家里聚餐的照片。另一张合照中,古力加那提靠在『古力娜扎』身后,画面和谐美丽,姐妹俩的颜值也是极为养眼。『古力娜扎』也曾经留过短发,翻看照片时,不难发现,当她短发的时候,两姐妹的相似度简直翻倍了,看得…

『古力娜扎』与大5岁姐姐最新同框,姐妹俩长得好像,都又高又漂亮(『古力娜扎』门)

演唱会出轨女方美国演讲门票超6千 危机沟通变现之路(唱歌出轨)

去年,酷玩乐队在波士顿的一场演唱会上发生了一起婚外情事件,涉事的克里斯汀·卡伯特现在找到了一种从这起全球舆论风暴中牟利的方式。她将于4月16日在华盛顿特区举办的《公关周刊》危机沟通大会上首次以主旨演讲嘉宾的身份登台

演唱会出轨女方美国演讲门票超6千 危机沟通变现之路(唱歌出轨)