HyperAIHyperAI
il y a 17 jours

Embeddings de Normalisation par Lot pour la Généralisation de Domaine Profonde

Mattia Segu, Alessio Tonioni, Federico Tombari
Embeddings de Normalisation par Lot pour la Généralisation de Domaine Profonde
Résumé

La généralisation de domaine vise à entraîner des modèles d’apprentissage automatique afin qu’ils s’exécutent de manière robuste sur des domaines différents et inédits. Plusieurs méthodes récentes utilisent plusieurs jeux de données pour former des modèles capables d’extraire des caractéristiques invariantes par rapport au domaine, dans l’espoir d’obtenir une généralisation à des domaines inconnus. À la place, nous commençons par entraîner explicitement des représentations dépendantes du domaine en utilisant des couches de normalisation par lot spécifiques, conçues pour capturer les statistiques propres à chaque domaine. Ensuite, nous proposons d’utiliser ces statistiques pour projeter les différents domaines dans un espace latent commun, où l’appartenance à un domaine peut être mesurée à l’aide d’une fonction de distance. En phase de test, nous projetons les échantillons provenant d’un domaine inconnu dans ce même espace et inférons leurs propriétés de domaine comme une combinaison linéaire des domaines connus. Nous appliquons la même stratégie de projection à la fois en apprentissage et en test, apprenant ainsi à la fois une représentation latente et un modèle d’ensemble efficace et léger. Nous démontrons une amélioration significative de la précision de classification par rapport aux techniques de pointe actuelles sur des benchmarks populaires en généralisation de domaine : PACS, Office-31 et Office-Caltech.