
摘要
挖掘精确的类别感知注意力图(即类别激活图,Class Activation Maps)对于弱监督语义分割至关重要。本文提出L2G——一种简单且高效的在线局部到全局知识迁移框架,用于高质量目标注意力图的挖掘。我们观察到,当用输入图像的局部图像块替换原始图像时,分类模型能够捕捉到更具细节的目标区域。基于这一发现,我们首先利用一个局部分类网络,从输入图像中随机裁剪的多个局部图像块中提取注意力信息;随后,通过一个全局网络在线学习多个局部注意力图之间的互补知识。该框架使全局网络能够从全局视角整合局部捕获的丰富目标细节信息,从而生成高质量的注意力图,可直接作为语义分割网络的伪标签使用。实验结果表明,本方法在PASCAL VOC 2012和MS COCO 2014验证集上分别取得了72.1%和44.2%的mIoU指标,刷新了当前最优性能记录。代码已开源,地址为:https://github.com/PengtaoJiang/L2G。