Tri-entraînement asymétrique pour l'adaptation de domaine non supervisée

Les modèles à couches profondes formés sur un grand nombre d'échantillons étiquetés améliorent la précision de nombreuses tâches. Il est important d'appliquer ces modèles à différents domaines, car la collecte de nombreux échantillons étiquetés dans divers domaines est coûteuse. Dans l'adaptation de domaine non supervisée, il faut former un classifieur qui fonctionne bien sur un domaine cible en utilisant des échantillons source étiquetés et des échantillons cible non étiquetés. Bien que de nombreuses méthodes visent à aligner les distributions des échantillons source et cible, le simple alignement des distributions ne garantit pas la précision sur le domaine cible. Pour apprendre des représentations discriminantes pour le domaine cible, nous supposons qu'étiqueter artificiellement les échantillons cibles peut conduire à une bonne représentation. La méthode du tri-entraînement utilise trois classifieurs de manière équivalente pour attribuer des pseudo-étiquettes aux échantillons non étiquetés, mais elle ne suppose pas que les échantillons soient générés à partir d'un domaine différent. Dans cet article, nous proposons une méthode de tri-entraînement asymétrique pour l'adaptation de domaine non supervisée, où nous attribuons des pseudo-étiquettes aux échantillons non étiquetés et formons des réseaux neuronaux comme s'il s'agissait de vraies étiquettes. Dans notre travail, nous utilisons trois réseaux de manière asymétrique. Par asymétrique, nous entendons que deux réseaux sont utilisés pour étiqueter les échantillons cibles non étiquetés et un réseau est formé par ces échantillons pour obtenir des représentations discriminantes du domaine cible. Nous avons évalué notre méthode sur des ensembles de données de reconnaissance de chiffres et d'analyse de sentiments. Notre méthode proposée atteint des performances d'état de l'art sur les ensembles de données standardisés de reconnaissance de chiffres en adaptation de domaine.