HyperAIHyperAI
il y a 17 jours

Maximisation de la discrépance de tâche pour la classification peu-forte fine-grainée

SuBeen Lee, WonJun Moon, Jae-Pil Heo
Maximisation de la discrépance de tâche pour la classification peu-forte fine-grainée
Résumé

La reconnaissance de détails discriminatifs tels que les yeux ou le bec est essentielle pour distinguer des classes à granularité fine, car celles-ci présentent des apparences globales similaires. À cet égard, nous introduisons Task Discrepancy Maximization (TDM), un module simple destiné à la classification à peu d’exemples à granularité fine. Notre objectif consiste à localiser les régions discriminatives spécifiques à chaque classe en mettant en évidence les canaux qui codent des informations distinctes pour chaque classe. Plus précisément, TDM apprend des poids de canaux spécifiques à la tâche grâce à deux composants novateurs : le Support Attention Module (SAM) et le Query Attention Module (QAM). Le SAM génère un poids de support représentant le pouvoir discriminatif canal par canal pour chaque classe. Toutefois, comme le SAM repose essentiellement sur les ensembles de supports étiquetés, il peut être sensible à un biais envers ces ensembles. Pour pallier ce défaut, nous proposons le QAM, qui complète le SAM en produisant un poids de requête qui accorde une plus grande importance aux canaux pertinents pour l’objet dans une image de requête donnée. En combinant ces deux poids, nous définissons un poids de canal spécifique à la classe et à la tâche. Ces poids sont ensuite appliqués pour générer des cartes de caractéristiques adaptatives à la tâche, plus focalisées sur les détails discriminatifs. Nos expériences confirment l’efficacité de TDM ainsi que ses avantages complémentaires par rapport aux méthodes existantes dans le cadre de la classification à peu d’exemples à granularité fine.