ACE : Experts Complémentaires Alliés pour Résoudre la Reconnaissance à Longue Queue en Une Seule Tentative

Les méthodes de reconnaissance à une seule étape pour les distributions longues-taillées améliorent les performances globales de manière « en balançoire », c’est-à-dire qu’elles sacrifient soit la précision des catégories dominantes (« head ») pour améliorer la classification des catégories rares (« tail »), soit au contraire renforcent encore davantage la précision du « head » tout en ignorant les catégories rares. Les algorithmes existants contournent ce compromis grâce à un processus d’entraînement en plusieurs étapes : pré-entraînement sur un ensemble déséquilibré, puis ajustement fin sur un ensemble équilibré. Bien qu’ils atteignent des performances prometteuses, ces approches sont non seulement sensibles à la généralisation du modèle pré-entraîné, mais en plus difficilement intégrables à d’autres tâches de vision par ordinateur comme la détection ou la segmentation, où le pré-entraînement d’un classificateur seul n’est pas applicable. Dans cet article, nous proposons une méthode de reconnaissance à une seule étape, nommée Allied Complementary Experts (ACE), dans laquelle chaque expert est un spécialiste particulièrement compétent dans un sous-ensemble de catégories dominantes, tout en restant complémentaire aux autres experts pour les catégories peu fréquentes, sans être perturbé par les catégories qu’il n’a jamais vues. Nous concevons un optimiseur adapté à la distribution afin d’ajuster dynamiquement le rythme d’apprentissage de chaque expert, évitant ainsi le sur-apprentissage. Sans recourir à des améliorations spéciales, le modèle ACE de base bat l’état de l’art actuel à une seule étape de 3 à 10 % sur les jeux de données CIFAR10-LT, CIFAR100-LT, ImageNet-LT et iNaturalist. Il s’agit également du premier modèle à rompre le compromis « en balançoire » en améliorant simultanément la précision des catégories majoritaires et minoritaires en une seule étape. Le code source et les modèles entraînés sont disponibles à l’adresse suivante : https://github.com/jrcai/ACE.