HyperAIHyperAI

Command Palette

Search for a command to run...

CBAM : Module de Bloc d'Attention Convolutif

Sanghyun Woo Jongchan Park Joon-Young Lee In So Kweon

Résumé

Nous proposons le module d'attention par blocs de convolution (Convolutional Block Attention Module, CBAM), un module d'attention simple mais efficace pour les réseaux neuronaux convolutifs à alimentation directe. Étant donné une carte de caractéristiques intermédiaire, notre module infère séquentiellement des cartes d'attention selon deux dimensions distinctes : canal et espace. Ensuite, ces cartes d'attention sont multipliées à la carte de caractéristiques d'entrée pour un affinage adaptatif des caractéristiques. Étant donné que CBAM est un module léger et général, il peut être intégré sans heurts dans n'importe quelle architecture de CNN avec un surcoût négligeable et est entraînable de bout en bout avec les CNN de base. Nous validons notre CBAM grâce à des expériences exhaustives sur les ensembles de données ImageNet-1K, MS COCO detection et VOC 2007 detection. Nos expériences montrent des améliorations constantes dans les performances de classification et de détection avec divers modèles, démontrant ainsi l'applicabilité étendue du CBAM. Le code source et les modèles seront mis à disposition publiquement.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp