2 个月前

ImageBERT:利用大规模弱监督图像-文本数据进行跨模态预训练

Di Qi; Lin Su; Jia Song; Edward Cui; Taroon Bharti; Arun Sacheti
ImageBERT:利用大规模弱监督图像-文本数据进行跨模态预训练
摘要

在本文中,我们介绍了一种新的视觉-语言预训练模型——ImageBERT——用于图像-文本联合嵌入。我们的模型基于Transformer架构,可以接受不同模态的输入并建模它们之间的关系。该模型同时在四个任务上进行预训练:掩码语言建模(Masked Language Modeling, MLM)、掩码对象分类(Masked Object Classification, MOC)、掩码区域特征回归(Masked Region Feature Regression, MRFR)和图像文本匹配(Image Text Matching, ITM)。为了进一步提高预训练质量,我们从网络中收集了一个大规模弱监督图像-文本(Large-scale weAk-supervised Image-Text, LAIT)数据集。我们首先在这个数据集上对模型进行预训练,然后在Conceptual Captions和SBU Captions数据集上进行第二阶段的预训练。实验结果表明,多阶段预训练策略优于单阶段预训练。此外,我们在图像检索和文本检索任务上对预训练的ImageBERT模型进行了微调和评估,并在MSCOCO和Flickr30k数据集上均取得了最新的最佳结果。