HyperAIHyperAI
il y a 2 mois

MDCS : Plus d'Experts Divers avec l'Autodistillation Cohérente pour la Reconnaissance à Queue Longue

Qihao Zhao; Chen Jiang; Wei Hu; Fan Zhang; Jun Liu
MDCS : Plus d'Experts Divers avec l'Autodistillation Cohérente pour la Reconnaissance à Queue Longue
Résumé

Récemment, les méthodes à plusieurs experts ont permis des améliorations significatives dans la reconnaissance de queue longue (LTR). Nous résumons deux aspects nécessitant une amélioration supplémentaire pour contribuer à l'optimisation de la LTR : (1) Des experts plus diversifiés ; (2) Une variance du modèle moindre. Cependant, les méthodes précédentes n'ont pas bien géré ces aspects. A cet égard, nous proposons une méthode d'Experts Plus Diversifiés avec Distillation Auto-consistance (MDCS) pour combler le fossé laissé par les méthodes antérieures. Notre approche MDCS se compose de deux composants essentiels : la Perte de Diversité (DL) et la Distillation Auto-consistance (CS). En détail, DL favorise la diversité entre les experts en contrôlant leur focalisation sur différentes catégories. Pour réduire la variance du modèle, nous utilisons la divergence KL pour distiller les connaissances plus riches des instances faiblement augmentées pour la distillation auto des experts. En particulier, nous concevons un Échantillonnage d'Instances Confiantes (CIS) pour sélectionner les instances correctement classées pour CS afin d'éviter une connaissance biaisée ou bruyante. Dans l'analyse et l'étude d'ablation, nous démontrons que notre méthode, comparée aux travaux précédents, peut efficacement augmenter la diversité des experts, réduire considérablement la variance du modèle et améliorer la précision de reconnaissance. De plus, les rôles de notre DL et CS sont mutuellement renforçants et couplés : la diversité des experts bénéficie de CS, et CS ne peut atteindre des résultats remarquables sans DL. Les expériences montrent que notre MDCS surpassent l'état de l'art de 1% $\sim$ 2% sur cinq benchmarks populaires à queue longue, incluant CIFAR10-LT, CIFAR100-LT, ImageNet-LT, Places-LT et iNaturalist 2018. Le code est disponible sur https://github.com/fistyee/MDCS.Note: "Diversity Loss" is translated as "Perte de Diversité" and "Consistency Self-distillation" as "Distillation Auto-consistance". These translations aim to maintain the technical meaning while ensuring readability in French. If these terms are not commonly used in French academic or technical literature, you may want to keep the English terms and provide a brief explanation in parentheses.