17 天前
ECA-Net:面向深度卷积神经网络的高效通道注意力机制
Qilong Wang, Banggu Wu, Pengfei Zhu, Peihua Li, Wangmeng Zuo, Qinghua Hu

摘要
近年来,通道注意力机制在提升深度卷积神经网络(CNN)性能方面展现出巨大潜力。然而,大多数现有方法致力于设计更为复杂的注意力模块以追求更高性能,这不可避免地导致模型复杂度上升。为解决性能与复杂度之间的权衡难题,本文提出一种高效通道注意力(Efficient Channel Attention, ECA)模块。该模块仅包含少量参数,却能带来显著的性能提升。通过对SENet中通道注意力模块的深入分析,我们通过实证研究发现:避免降维操作对于学习有效的通道注意力至关重要;而通过适当的跨通道交互,可在显著降低模型复杂度的同时保持原有性能水平。基于此,我们提出一种无需降维的局部跨通道交互策略,该策略可通过一维卷积(1D convolution)高效实现。此外,我们进一步设计了一种自适应方法,用于动态选择1D卷积的核大小,从而确定局部跨通道交互的覆盖范围。所提出的ECA模块兼具高效性与有效性。以ResNet50为主干网络为例,其参数量仅为24.37M的80分之一(即约80万),计算量也从3.86 GFLOPs降至4.7×10⁻⁴ GFLOPs,降幅超过三个数量级,同时在Top-1准确率上实现了超过2%的性能提升。我们在基于ResNet和MobileNetV2主干网络的图像分类、目标检测与实例分割任务上对ECA模块进行了广泛评估。实验结果表明,ECA模块在保持优异性能的同时,显著优于现有同类方法,在效率方面具有明显优势。