19 天前
用于语义分割的挤压-注意力网络
Zilong Zhong, Zhong Qiu Lin, Rene Bidart, Xiaodan Hu, Ibrahim Ben Daya, Zhifeng Li, Wei-Shi Zheng, Jonathan Li, Alexander Wong

摘要
近年来,注意力机制被引入分割网络,通过重点关注更具信息量的特征显著提升了模型的表征能力。然而,现有注意力机制往往忽视了语义分割中隐含的子任务,并受限于卷积核的网格结构。本文提出一种新型的挤压-注意力网络(Squeeze-and-Attention Network, SANet)架构,其核心是引入一种高效的挤压-注意力(Squeeze-and-Attention, SA)模块,以捕捉分割任务的两个关键特性:i)像素组注意力(pixel-group attention),ii)像素级预测(pixel-wise prediction)。具体而言,所提出的SA模块通过引入“注意力”卷积通道,在传统卷积基础上施加像素组注意力,从而以高效方式建模空间与通道之间的相互依赖关系。最终的分割结果通过融合SANet四个层级阶段的输出,整合多尺度上下文信息,实现更精确的像素级预测。在两个具有挑战性的公开数据集上的实验证明了所提SANet的有效性:在PASCAL VOC数据集上(未使用COCO预训练)达到83.2%的mIoU;在PASCAL Context数据集上取得54.4%的当前最优mIoU,验证了其先进性能。