CBAM: Konvolutionaler Block-Aufmerksamkeitsmodul

Wir schlagen das Convolutional Block Attention Modul (CBAM) vor, ein einfaches und dennoch effektives Aufmerksamkeitsmodul für feed-forward convolutionale Neuronale Netze. Anhand einer Zwischenfeaturekarte inferiert unser Modul sequenziell Aufmerksamkeitskarten in zwei separaten Dimensionen, nämlich Kanal und Raum. Anschließend werden die Aufmerksamkeitskarten mit der Eingangsfeaturekarte multipliziert, um eine adaptive Feinabstimmung der Merkmale zu erreichen. Da CBAM ein leichtgewichtiges und allgemeines Modul ist, kann es nahtlos in jede CNN-Architektur integriert werden, wobei die zusätzlichen Kosten vernachlässigbar sind. Es ist zudem end-to-end trainierbar zusammen mit den Basis-CNNs. Wir validieren unser CBAM durch umfangreiche Experimente auf den Datensätzen ImageNet-1K, MS COCO Detection und VOC 2007 Detection. Unsere Experimente zeigen konsistente Verbesserungen in den Klassifikations- und Detektionsleistungen bei verschiedenen Modellen, was die breite Anwendbarkeit von CBAM unterstreicht. Der Code und die Modelle werden öffentlich zur Verfügung gestellt.