17日前

ECA-Net:深層畳み込みニューラルネットワークにおける効率的なチャネル注意力

Qilong Wang, Banggu Wu, Pengfei Zhu, Peihua Li, Wangmeng Zuo, Qinghua Hu
ECA-Net:深層畳み込みニューラルネットワークにおける効率的なチャネル注意力
要約

近年、チャネル注意力機構は、深層畳み込みニューラルネットワーク(CNN)の性能向上において大きな可能性を示している。しかし、既存の大多数の手法は、より高性能を達成するためにより複雑な注意力モジュールの開発に注力しており、その結果、モデルの複雑性が必然的に増加している。性能と複雑性のトレードオフというジレンマを克服するため、本論文では、わずかなパラメータ数で明確な性能向上をもたらす「効率的チャネル注意力(Efficient Channel Attention: ECA)モジュール」を提案する。SENetにおけるチャネル注意力モジュールを詳細に分析した結果、次元削減を回避することがチャネル注意力の学習において重要であることが実証された。また、適切なチャネル間相互作用を維持することで、性能を保持しつつモデルの複雑性を著しく低減できることが示された。そこで、次元削減を伴わない局所的なチャネル間相互作用戦略を提案し、これを1次元畳み込み($1D$ convolution)を用いて効率的に実装可能であることを示した。さらに、1次元畳み込みのカーネルサイズを適応的に選択する手法を構築し、局所的チャネル間相互作用のカバー範囲を動的に決定する。提案するECAモジュールは、効率的かつ有効である。例えば、ResNet50をバックボーンとする場合、本モジュールのパラメータ数は80万対2437万、計算量は4.7×10⁻⁴ GFLOPs対3.86 GFLOPsであり、Top-1精度において2%以上の向上が確認された。本研究では、ResNetおよびMobileNetV2をバックボーンとして、画像分類、物体検出、インスタンスセグメンテーションの3つのタスクにおいてECAモジュールを広範に評価した。実験結果から、他の類似モジュールと比較して、本手法はより高い効率性を発揮しつつ、同等または優れた性能を達成することが明らかになった。