Réexaminer et Optimiser la Connaissance Temporelle dans la Segmentation Sémantique Semi-supervisée

Dans le domaine de la segmentation sémantique semi-supervisée, les approches basées sur le Mean Teacher et le co-entraînement sont utilisées pour atténuer les biais de confirmation et les problèmes de couplage. Cependant, malgré leurs performances élevées, ces méthodes impliquent souvent des pipelines d'entraînement complexes et un fardeau informatique important, limitant ainsi leur évolutivité et leur compatibilité. Dans cet article, nous proposons un cadre appelé PrevMatch qui réduit efficacement ces limitations en maximisant l'utilisation des connaissances temporelles acquises au cours du processus d'entraînement. Le cadre PrevMatch repose sur deux stratégies clés : (1) nous réexaminons l'utilisation des connaissances temporelles et utilisons directement les modèles précédents obtenus lors de l'entraînement pour générer une guidance supplémentaire sous forme de pseudo-étiquettes, appelée guidance précédente. (2) nous concevons une stratégie d'ensemble hautement randomisée pour maximiser l'efficacité de cette guidance précédente. Les résultats expérimentaux sur quatre jeux de données de référence en segmentation sémantique confirment que la méthode proposée dépasse constamment les méthodes existantes selon divers protocoles d'évaluation. En particulier, avec les configurations réseau DeepLabV3+ et ResNet-101, PrevMatch surpasses la méthode actuelle la plus performante, Diverse Co-training, avec une amélioration de +1,6 mIoU sur Pascal VOC en utilisant seulement 92 images annotées, tout en réalisant un entraînement 2,4 fois plus rapide. De plus, les résultats indiquent que PrevMatch induit une optimisation stable, en particulier en bénéficiant aux classes qui présentent des performances médiocres. Le code est disponible à l'adresse suivante : https://github.com/wooseok-shin/PrevMatch