Apprentissage d’un mélange d’experts spécifiques à la granularité pour une catégorisation fine

Nous visons à diviser l’espace des problèmes de reconnaissance fine-grain en plusieurs régions spécifiques. Pour y parvenir, nous proposons un cadre unifié fondé sur un mélange d’experts. En raison de la quantité limitée de données disponible pour la reconnaissance fine-grain, il n’est pas réaliste d’apprendre des experts diversifiés par une stratégie de division des données. Pour surmonter ce défi, nous favorisons la diversité parmi les experts en combinant une stratégie d’apprentissage progressif des experts et une contrainte basée sur la divergence de Kullback-Leibler. Cette stratégie permet d’apprendre de nouveaux experts sur un ensemble de données en s’appuyant sur les connaissances préalables des experts antérieurs, et de les intégrer séquentiellement au modèle, tandis que la contrainte introduite force les experts à produire des distributions de prédictions différentes. Ces mécanismes poussent les experts à aborder la tâche sous des angles variés, les spécialisant ainsi dans des sous-problèmes distincts. Les expériences montrent que le modèle obtenu améliore significativement la performance de classification et atteint des résultats de pointe sur plusieurs jeux de données standard de reconnaissance fine-grain.