Command Palette
Search for a command to run...
Réexamen de la tête frère dans le détecteur d'objets
Réexamen de la tête frère dans le détecteur d'objets
Guanglu Song Yu Liu Xiaogang Wang
Résumé
La « tête partagée pour la classification et la localisation » (tête sœur), initialement introduite dans Fast R-CNN~\cite{girshick2015fast}, a dominé les tendances du domaine de la détection d'objets au cours des cinq dernières années. Cette étude met en évidence que l’alignement spatial déficient entre les deux fonctions d’objet au sein de cette tête sœur peut considérablement nuire au processus d’apprentissage. Ce défaut peut toutefois être résolu par un opérateur simple, nommé désenchevêtrement spatial conscient de la tâche (Task-aware Spatial Disentanglement, TSD). En considérant les tâches de classification et de régression, le TSD les découple selon la dimension spatiale en générant deux propositions désenchevêtrées, chacune étant estimée à partir de la proposition partagée. Cette approche s’inspire d’un constat naturel : pour une instance donnée, les caractéristiques issues d’une région saillante peuvent contenir une information riche pour la classification, tandis que celles situées aux abords de la frontière sont particulièrement adaptées à la régression de la boîte englobante. De manière surprenante, ce design simple permet d’améliorer de manière cohérente tous les architectures de base (backbones) et tous les modèles sur les jeux de données MS COCO et Google OpenImages, avec une augmentation moyenne de ~3 % en mAP. En outre, nous proposons une contrainte progressive afin d’élargir davantage l’écart de performance entre les propositions désenchevêtrées et les propositions partagées, ce qui permet d’obtenir un gain supplémentaire d’environ 1 % en mAP. Nous démontrons que notre méthode, \algname{}, dépasse largement la borne supérieure des détecteurs mono-modèles actuels (mAP de 49,4 avec ResNet-101, 51,2 avec SENet154), et constitue le modèle central de notre solution primée (1re place) au Google OpenImage Challenge 2019.