Command Palette
Search for a command to run...
Modèle d'attention sensible aux attributs pour l'apprentissage de représentations fines
Modèle d'attention sensible aux attributs pour l'apprentissage de représentations fines
Kai Han extsuperscript1,* Jianyuan Guo extsuperscript1,* Chao Zhang extsuperscript1,* Mingjian Zhu extsuperscript1
Résumé
Comment apprendre une représentation fine et discriminante est un point clé dans de nombreuses applications en vision par ordinateur, telles que la ré-identification des personnes, la classification fine-grainée, la recherche d'images fine-grainée, etc. La plupart des méthodes précédentes se concentrent sur l'apprentissage de métriques ou d'ensembles pour obtenir une meilleure représentation globale, qui manquent généralement d'informations locales. En tenant compte des considérations ci-dessus, nous proposons un nouveau modèle d'attention sensible aux attributs (Attribute-Aware Attention Model, A3M), capable d'apprendre simultanément une représentation locale des attributs et une représentation globale des catégories de manière end-to-end. Le modèle proposé comprend deux modules d'attention : le module d'attention guidé par les attributs utilise les informations sur les attributs pour aider à sélectionner les caractéristiques de catégorie dans différentes régions, tandis que le module d'attention guidé par les catégories sélectionne les caractéristiques locales de différents attributs grâce aux indices de catégorie. Grâce à ce processus réciproque entre les attributs et les catégories, les caractéristiques locales et globales s'enrichissent mutuellement. Enfin, la caractéristique résultante contient plus d'informations intrinsèques pour la reconnaissance d'images plutôt que des caractéristiques bruyantes et non pertinentes. De nombreuses expériences menées sur Market-1501, CompCars, CUB-200-2011 et CARS196 démontrent l'efficacité de notre A3M. Le code source est disponible à l'adresse suivante : https://github.com/iamhankai/attribute-aware-attention.