Compréhension de l'auto-entraînement pour l'adaptation de domaine progressive

Les systèmes d’apprentissage automatique doivent s’adapter à des distributions de données évoluant au fil du temps, dans des applications allant des réseaux de capteurs et des modules de perception pour véhicules autonomes aux interfaces cerveau-machine. Nous considérons l’adaptation de domaine progressive, dont l’objectif est d’adapter un classificateur initial entraîné sur un domaine source, en ne disposant que de données non étiquetées qui évoluent progressivement vers une distribution cible. Nous établissons la première borne supérieure non triviale sur l’erreur de l’auto-entraînement dans le cadre de décalages progressifs, dans des situations où une adaptation directe vers le domaine cible pourrait entraîner une erreur illimitée. L’analyse théorique fournit des insights algorithmiques, mettant en évidence que la régularisation et l’affûtage des étiquettes sont essentiels même en présence de données infinies, et suggérant que l’auto-entraînement se révèle particulièrement efficace pour des décalages présentant une petite distance de Wasserstein-infini. L’exploitation de la structure de décalage progressif permet d’atteindre des taux de précision supérieurs sur un jeu de données MNIST en rotation et sur un jeu de données réaliste de portraits.