Divergence de Wasserstein tranchée pour l'adaptation de domaine non supervisée

Dans cette étude, nous établissons un lien entre deux concepts distincts pour l'adaptation de domaine non supervisée : l'alignement de la distribution des caractéristiques entre les domaines en utilisant la frontière de décision spécifique à la tâche et la métrique de Wasserstein. Notre proposition, la divergence de Wasserstein tranchée (SWD), est conçue pour capturer la notion naturelle de dissimilarité entre les sorties des classifieurs spécifiques à la tâche. Elle fournit une orientation géométriquement significative pour détecter les échantillons cibles qui sont éloignés du support de la source et permet un alignement efficace des distributions dans une architecture entièrement apprenable. Dans les expériences, nous validons l'efficacité et la généralité de notre méthode sur la reconnaissance de chiffres et de signes, la classification d'images, le segmention sémantique et la détection d'objets.