Apprentissage automatique auto-supervisé trans-domaine par prototype pour l'adaptation de domaine non supervisée à faible exemple

L’adaptation de domaine non supervisée (UDA) vise à transférer des modèles prédictifs d’un domaine source entièrement étiqueté vers un domaine cible non étiqueté. Toutefois, dans certaines applications, la collecte d’étiquettes même dans le domaine source s’avère coûteuse, rendant la plupart des approches antérieures peu pratiques. Pour surmonter ce problème, les travaux récents ont proposé d’effectuer un apprentissage auto-supervisé croisant les domaines au niveau des instances, suivi d’une étape de fine-tuning supplémentaire. Toutefois, cet apprentissage auto-supervisé au niveau des instances ne permet d’apprendre et d’aligner que des caractéristiques discriminatives de bas niveau. Dans cet article, nous proposons un cadre end-to-end, appelé Apprentissage Auto-supervisé Croisant les Domaines Prototypique (PCS), pour l’adaptation de domaine non supervisée à faibles exemples (FUDA). PCS réalise non seulement l’alignement des caractéristiques de bas niveau entre domaines, mais encode également et aligne les structures sémantiques dans l’espace d’embedding partagé entre les domaines. Notre cadre capture les structures sémantiques catégorielles des données grâce à une contraste prototypique intra-domaine ; et réalise l’alignement des caractéristiques par une auto-supervision prototypique croisant les domaines. Par rapport aux méthodes de pointe, PCS améliore la précision moyenne de classification sur différentes paires de domaines dans le cadre de la FUDA de 10,5 %, 3,5 %, 9,0 % et 13,2 % respectivement sur les jeux de données Office, Office-Home, VisDA-2017 et DomainNet. La page de projet est disponible à l’adresse http://xyue.io/pcs-fuda/index.html