17 天前

用于语义分割的通道化轴向注意力——在空间注意力中考虑通道关系的语义分割

Ye Huang, Di Kang, Wenjing Jia, Xiangjian He, Liu Liu
用于语义分割的通道化轴向注意力——在空间注意力中考虑通道关系的语义分割
摘要

空间注意力与通道注意力分别用于建模空间维度和通道维度上的语义依赖关系,近年来在语义分割任务中得到了广泛应用。然而,将空间注意力与通道注意力分别独立计算有时会导致误差,尤其是在处理复杂或困难样本时更为明显。为此,本文提出了一种通道化轴向注意力(Channelized Axial Attention, CAA),通过一次统一操作无缝融合通道注意力与空间注意力,且计算开销几乎可以忽略不计。具体而言,我们将空间注意力中的点积运算分解为两个部分,并在中间引入通道关系建模,从而实现对每个空间位置独立优化的通道注意力。此外,我们进一步设计了分组向量化(grouped vectorization)机制,使模型在保持高速运行的同时,内存占用极低。在多个基准数据集(包括Cityscapes、PASCAL Context和COCO-Stuff)上的对比实验表明,所提出的CAA在所有测试数据集上均优于多种当前先进的分割模型(包括双注意力机制模型),展现出卓越的性能。