Amélioration de l'adaptation au moment du test pour la généralisation de domaine

Le principal défi dans la généralisation de domaine (DG) est de gérer le problème de décalage de distribution qui existe entre les données d'entraînement et les données de test. Des études récentes suggèrent que l'entraînement au moment du test (TTT), qui adapte le modèle appris avec des données de test, pourrait être une solution prometteuse à ce problème. Généralement, la performance d'une stratégie TTT repose sur deux facteurs principaux : la sélection d'une tâche auxiliaire TTT appropriée pour la mise à jour et l'identification de paramètres fiables à mettre à jour pendant la phase de test. Les travaux antérieurs ainsi que nos expériences indiquent que si ces deux facteurs ne sont pas correctement pris en compte, le TTT peut non seulement ne pas améliorer mais aussi nuire au modèle appris. Cette étude aborde ces deux facteurs en proposant une méthode d'Adaptation Améliorée au Moment du Test (ITTA). Premièrement, au lieu de définir heuristiquement un objectif auxiliaire, nous proposons une perte de cohérence apprenable pour la tâche TTT, qui comprend des paramètres apprenables pouvant être ajustés pour une meilleure alignement entre notre tâche TTT et la tâche principale de prédiction. Deuxièmement, nous introduisons des paramètres adaptatifs supplémentaires pour le modèle entraîné, et nous suggérons de ne mettre à jour que ces paramètres adaptatifs lors de la phase de test. À travers des expérimentations approfondies, nous montrons que les deux stratégies proposées sont bénéfiques pour le modèle appris (voir Figure 1), et que l'ITTA peut atteindre des performances supérieures aux méthodes actuelles les plus avancées sur plusieurs benchmarks DG. Le code est disponible à l'adresse suivante : https://github.com/liangchen527/ITTA.