HyperAIHyperAI
il y a 18 jours

Généralisation de domaine par régularisation par entropie

{DaCheng Tao, Huan Fu, Tongliang Liu, Mingming Gong, Shanshan Zhao}
Généralisation de domaine par régularisation par entropie
Résumé

La généralisation de domaine vise à apprendre à partir de plusieurs domaines sources un modèle prédictif capable de s'adapter à des domaines cibles inconnus. Un problème fondamental en généralisation de domaine consiste à apprendre des caractéristiques discriminantes et invariantes par rapport au domaine. Pour y parvenir, certaines méthodes introduisent un discriminateur de domaine via une apprentissage adversaire afin d’aligner les distributions de caractéristiques dans les différents domaines sources. Toutefois, l’apprentissage adversaire ne garantit que l’invariance des distributions marginales des caractéristiques, tandis que l’invariance des distributions conditionnelles est plus cruciale pour la prédiction dans de nouveaux domaines. Afin de garantir l’invariance conditionnelle des caractéristiques apprises, nous proposons un terme de régularisation par entropie qui mesure la dépendance entre les caractéristiques apprises et les étiquettes de classe. En combinant ce terme avec une perte typiquement liée à la tâche — par exemple, la perte d’entropie croisée pour la classification — ainsi qu’une perte adversaire pour la discrimination de domaine, notre objectif global assure l’apprentissage de caractéristiques invariantes conditionnellement sur tous les domaines sources, permettant ainsi d’obtenir des classifieurs dotés d’une meilleure capacité de généralisation. Nous démontrons l’efficacité de notre méthode en la comparant à des approches de pointe sur des jeux de données simulés et réels. Le code est disponible à l’adresse suivante : https://github.com/sshan-zhao/DGviaER.

Généralisation de domaine par régularisation par entropie | Articles de recherche récents | HyperAI