Adaptation non supervisée de domaine visuel : Une approche par processus gaussien à marge maximale profonde
Dans l'adaptation de domaine non supervisée, il est largement reconnu que l'erreur du domaine cible peut être réduite de manière prouvée en disposant d'une représentation d'entrée partagée qui rend les domaines source et cible indiscernables l'un de l'autre. Très récemment, des études ont montré que non seulement le rapprochement des distributions marginales des entrées, mais aussi l'alignement des distributions de sortie (classes) est crucial. Ce dernier peut être réalisé en minimisant la discrépance maximale des prédicteurs (classifieurs). Dans cet article, nous adoptons ce principe, mais proposons une méthode plus systématique et efficace pour atteindre la cohérence des hypothèses via les processus gaussiens (GP). Les processus gaussiens nous permettent de définir/induire un espace d'hypothèses des classifieurs à partir de la distribution postérieure des fonctions aléatoires latentes, transformant ainsi l'apprentissage en un problème simple de séparation postérieure à grande marge, bien plus facile à résoudre que les approches précédentes basées sur l'optimisation minimax adverse. Nous formulons un objectif d'apprentissage qui pousse efficacement la distribution postérieure à minimiser la discrépance maximale. Il est également démontré que cela équivaut à maximiser les marges et à minimiser l'incertitude des prédictions de classe dans le domaine cible, un principe bien établi dans l'apprentissage classique (semi-supervisé). Les résultats empiriques montrent que notre approche est comparable ou supérieure aux méthodes existantes sur plusieurs jeux de données d'adaptation de domaine de référence.