HyperAIHyperAI
il y a 17 jours

Adaptation de domaine non supervisée sans données sources par transfert d'hypothèses et transfert d'étiquetage

Jian Liang, Dapeng Hu, Yunbo Wang, Ran He, Jiashi Feng
Adaptation de domaine non supervisée sans données sources par transfert d'hypothèses et transfert d'étiquetage
Résumé

L’adaptation de domaine non supervisée (UDA) vise à transférer des connaissances d’un domaine source bien étiqueté mais différent vers un nouveau domaine cible non étiqueté. La plupart des méthodes UDA existantes nécessitent l’accès aux données sources, ce qui les rend inapplicables lorsque celles-ci sont confidentielles et non partageables en raison de préoccupations liées à la vie privée. Ce papier s’attaque à un cadre réaliste dans lequel seule un modèle de classification entraîné sur les données sources est disponible, sans accès direct aux données elles-mêmes. Pour exploiter efficacement ce modèle source afin de réaliser l’adaptation, nous proposons une nouvelle approche appelée Source HypOthesis Transfer (SHOT), qui apprend le module d’extraction de caractéristiques pour le domaine cible en ajustant les caractéristiques des données cibles au modèle de classification source gelé (représentant ainsi l’hypothèse de classification). Plus précisément, SHOT exploite à la fois la maximisation de l’information et l’apprentissage auto-supervisé pour l’apprentissage du module d’extraction de caractéristiques, afin d’assurer une alignement implicite des caractéristiques cibles avec celles des données sources non vues, via la même hypothèse. En outre, nous proposons une nouvelle stratégie de transfert d’étiquetage, qui divise les données cibles en deux sous-ensembles selon le niveau de confiance des prédictions (information d’étiquetage), puis applique un apprentissage semi-supervisé pour améliorer la précision des prédictions peu fiables dans le domaine cible. Nous désignons ce transfert d’étiquetage comme SHOT++ lorsque les prédictions sont obtenues par SHOT. Des expériences étendues sur des tâches de classification de chiffres et de reconnaissance d’objets montrent que SHOT et SHOT++ atteignent des performances supérieures ou comparables aux états de l’art, démontrant ainsi l’efficacité de nos approches pour divers problèmes d’adaptation de domaine visuelle. Le code est disponible à l’adresse \url{https://github.com/tim-learn/SHOT-plus}.