
摘要
如何学习具有判别性的细粒度表示是许多计算机视觉应用的关键问题,例如行人重识别、细粒度分类、细粒度图像检索等。大多数先前的方法主要集中在学习度量或集成方法以获得更好的全局表示,但这些方法通常缺乏局部信息。基于上述考虑,我们提出了一种新颖的属性感知注意力模型(Attribute-Aware Attention Model, $A^3M$),该模型能够在端到端的方式下同时学习局部属性表示和全局类别表示。所提出的模型包含两个注意力模块:属性引导的注意力模块利用属性信息帮助在不同区域选择类别特征,而类别引导的注意力模块则借助类别线索选择不同属性的局部特征。通过这种属性-类别互惠过程,局部和全局特征能够相互受益。最终生成的特征包含了更多用于图像识别的本质信息,而不是噪声和无关特征。我们在Market-1501、CompCars、CUB-200-2011和CARS196数据集上进行了广泛的实验,证明了我们提出的$A^3M$的有效性。代码可在https://github.com/iamhankai/attribute-aware-attention获取。