Distillation Guidée pour le Segmentation d'Instances Semi-Supervisée

Bien que les méthodes de segmentation d'instances aient considérablement progressé, le paradigme dominant repose sur l'utilisation d'images d'entraînement entièrement annotées, qui sont fastidieuses à obtenir. Pour atténuer cette dépendance et améliorer les résultats, les approches semi-supervisées exploitent des données non étiquetées comme un signal d'entraînement supplémentaire, limitant ainsi le surapprentissage sur les échantillons étiquetés. Dans ce contexte, nous présentons de nouvelles options de conception pour améliorer significativement les modèles de distillation professeur-élève. Plus précisément, nous (i) améliorons l'approche de distillation en introduisant une nouvelle phase de « chauffe guidée » (guided burn-in), et (ii) évaluons différentes architectures de segmentation d'instances, ainsi que des réseaux de base et des stratégies de pré-entraînement. Contrairement aux travaux précédents qui n'utilisent que des données supervisées pendant la période de chauffe du modèle élève, nous utilisons également la guidance du modèle professeur pour exploiter les données non étiquetées lors de cette période. Notre approche améliorée de distillation conduit à des améliorations substantielles par rapport aux résultats antérieurs de pointe. Par exemple, sur le jeu de données Cityscapes, nous passons du masque-AP (mask-AP) 23,7 à 33,9 lorsque nous utilisons des labels pour 10 % des images, et sur le jeu de données COCO, nous passons du masque-AP 18,3 à 34,1 lorsque nous utilisons des labels pour seulement 1 % des données d'entraînement.