HyperAIHyperAI

Command Palette

Search for a command to run...

UNITER:通用图像-文本表示学习

Yen-Chun Chen* Linjie Li* Licheng Yu* Ahmed El Kholy Faisal Ahmed Zhe Gan Yu Cheng Jingjing Liu

摘要

联合图像-文本嵌入是大多数视觉与语言(V+L)任务的基础,其中多模态输入被同时处理以实现联合的视觉和文本理解。本文介绍了UNITER,一种通过在四个图像-文本数据集(COCO、Visual Genome、Conceptual Captions 和 SBU Captions)上进行大规模预训练而学到的通用图像-文本表示,该表示可以利用联合多模态嵌入来支持不同的下游 V+L 任务。我们设计了四种预训练任务:掩码语言模型(MLM)、掩码区域模型(MRM,有三种变体)、图像-文本匹配(ITM)和词-区域对齐(WRA)。与之前的工作不同,后者对两种模态都应用联合随机掩码,我们在预训练任务中使用条件掩码(即,掩码语言/区域建模是在完全观察到图像/文本的情况下进行的)。除了用于全局图像-文本对齐的 ITM 外,我们还提出了基于最优传输(OT)的 WRA,在预训练过程中显式地促进单词和图像区域之间的细粒度对齐。全面分析表明,条件掩码和基于 OT 的 WRA 均有助于更好的预训练效果。我们还进行了详尽的消融研究,以找到最佳的预训练任务组合。大量实验结果表明,UNITER 在六个 V+L 任务(涵盖九个数据集)上取得了新的最先进水平,包括视觉问答、图像-文本检索、指代表达理解、视觉常识推理、视觉蕴含判断和 NLVR2^22。代码可在 https://github.com/ChenRocks/UNITER 获取。


用 AI 构建 AI

从创意到上线——通过免费 AI 协同编码、开箱即用的环境和最优惠的 GPU 价格,加速您的 AI 开发。

AI 协同编码
开箱即用的 GPU
最优定价

HyperAI Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供