HyperAIHyperAI
il y a 2 mois

Couche de Dropout Basée sur l'Attention pour la Localisation d'Objets Faiblement Supervisée

Junsuk Choe; Hyunjung Shim
Couche de Dropout Basée sur l'Attention pour la Localisation d'Objets Faiblement Supervisée
Résumé

Les techniques de localisation d'objets faiblement supervisées (WSOL) apprennent la position des objets en utilisant uniquement des étiquettes au niveau de l'image, sans annotations de localisation. Une limitation courante de ces techniques est qu'elles ne couvrent que la partie la plus discriminante de l'objet, et non l'objet entier. Pour remédier à ce problème, nous proposons une couche de dropout basée sur l'attention (ADL), qui utilise le mécanisme d'auto-attention pour traiter les cartes de caractéristiques du modèle. La méthode proposée se compose de deux composants clés : 1) masquer la partie la plus discriminante de l'objet afin que le modèle capture l'étendue intégrale de celui-ci, et 2) mettre en évidence la région informative pour améliorer la capacité de reconnaissance du modèle. À travers des expériences approfondies, nous démontrons que la méthode proposée est efficace pour améliorer la précision de la WSOL, atteignant une nouvelle performance d'exactitude en localisation dans le jeu de données CUB-200-2011. Nous montrons également que cette méthode est beaucoup plus efficace en termes de surcharge paramétrique et computationnelle par rapport aux techniques existantes.

Couche de Dropout Basée sur l'Attention pour la Localisation d'Objets Faiblement Supervisée | Articles de recherche récents | HyperAI