CBAM : Module de Bloc d'Attention Convolutif

Nous proposons le module d'attention par blocs de convolution (Convolutional Block Attention Module, CBAM), un module d'attention simple mais efficace pour les réseaux neuronaux convolutifs à alimentation directe. Étant donné une carte de caractéristiques intermédiaire, notre module infère séquentiellement des cartes d'attention selon deux dimensions distinctes : canal et espace. Ensuite, ces cartes d'attention sont multipliées à la carte de caractéristiques d'entrée pour un affinage adaptatif des caractéristiques. Étant donné que CBAM est un module léger et général, il peut être intégré sans heurts dans n'importe quelle architecture de CNN avec un surcoût négligeable et est entraînable de bout en bout avec les CNN de base. Nous validons notre CBAM grâce à des expériences exhaustives sur les ensembles de données ImageNet-1K, MS COCO detection et VOC 2007 detection. Nos expériences montrent des améliorations constantes dans les performances de classification et de détection avec divers modèles, démontrant ainsi l'applicabilité étendue du CBAM. Le code source et les modèles seront mis à disposition publiquement.