18 天前

基于视觉语言注意力学习的文本反馈图像搜索

{ Loris Bazzani, Shaogang Gong, Yanbei Chen}
基于视觉语言注意力学习的文本反馈图像搜索
摘要

基于文本反馈的图像搜索在电子商务、互联网搜索等多个实际应用场景中展现出广阔的应用前景。给定一张参考图像及用户的文本反馈,其目标是检索出既与输入图像相似,又根据文本描述在某些方面发生相应变化的图像。这一任务极具挑战性,因为它要求模型对图像与文本信息进行协同理解。为此,本文提出一种新颖的视觉语言注意力学习(Visiolinguistic Attention Learning, VAL)框架来应对该问题。具体而言,我们设计了一种复合型Transformer结构,可无缝嵌入卷积神经网络(CNN)中,根据语言语义条件有选择性地保留并转换视觉特征。通过在不同网络深度处插入多个复合Transformer模块,VAL能够有效捕捉多层次粒度的视觉-语言联合信息,从而生成更具表现力的特征表示,显著提升图像搜索性能。我们在Fashion200k、Shoes和FashionIQ三个数据集上进行了全面评估。大量实验结果表明,所提模型在所有数据集上均优于现有方法,展现出在应对各类文本反馈(包括属性描述和自然语言描述)时的一致优越性。