
摘要
大规模图像字幕生成与视觉问答数据集的可用性,显著推动了视觉-语言预训练近年来的进展。然而,这些数据集在收集过程中往往沿用了其原始目标任务(如图像字幕生成)的过度严格要求,从而限制了数据集的规模与多样性。为进一步拓展视觉-语言预训练数据的边界,本文在Conceptual Captions 3M(CC3M)[Sharma等,2018]所采用的数据收集流程基础上,放宽了数据采集标准,提出了Conceptual 12M(CC12M)数据集,该数据集包含1200万对图像-文本数据,专为视觉-语言预训练而设计。我们对CC12M数据集进行了系统分析,并在多个下游任务上将其与CC3M进行了对比评估,重点关注长尾视觉识别性能。实验结果清晰表明,扩大预训练数据规模对视觉-语言任务具有显著提升作用,相关模型在NoCaps和Conceptual Captions两个基准测试上均取得了新的最先进(SOTA)性能。