Réexamen de la distillation en ensemble pour l’adaptation de domaine non supervisée basée sur la segmentation sémantique

Les recherches récentes sur l’adaptation de domaine non supervisée (UDA) ont démontré que les cadres d’apprentissage par ensemble en bout-à-bout constituent une solution prometteuse pour les tâches d’UDA. Toutefois, ces méthodes d’apprentissage par ensemble en bout-à-bout souffrent souvent d’un manque de flexibilité, car toute modification apportée à l’ensemble nécessite un reentraînement complet du cadre. Pour résoudre ce problème, nous proposons un cadre flexible de distillation d’ensemble pour l’adaptation de domaine basée sur la segmentation sémantique, permettant une composition arbitraire des membres de l’ensemble tout en préservant des performances supérieures. Pour atteindre cette flexibilité, notre cadre est conçu pour être robuste face aux incohérences de sortie et aux variations de performance des membres de l’ensemble. Afin d’évaluer l’efficacité et la robustesse de notre méthode, nous menons une série d’expériences approfondies sur les benchmarks GTA5 vers Cityscapes et SYNTHIA vers Cityscapes, afin d’analyser quantitativement les améliorations apportées par notre approche. Nous fournissons également des analyses détaillées pour valider que nos choix de conception sont pratiques et bénéfiques. Les résultats expérimentaux confirment que la méthode proposée offre effectivement des performances supérieures, une robustesse accrue et une flexibilité optimale dans les tâches d’adaptation de domaine basées sur la segmentation sémantique, par rapport aux méthodes de référence contemporaines.