HyperAIHyperAI
il y a 2 mois

Adaptation non supervisée multi-cible par distillation de connaissances

Nguyen-Meidine, Le Thanh ; Belal, Atif ; Kiran, Madhu ; Dolz, Jose ; Blais-Morin, Louis-Antoine ; Granger, Eric
Adaptation non supervisée multi-cible par distillation de connaissances
Résumé

L'adaptation de domaine non supervisée (UDA) vise à atténuer le problème de décalage de domaine entre la distribution des données non étiquetées du domaine cible et celle des données étiquetées du domaine source. Bien que le scénario d'UDA à une seule cible soit bien étudié dans la littérature, l'adaptation de domaine multi-cible (MTDA) reste largement inexplorée malgré son importance pratique, par exemple dans les applications de vidéosurveillance multi-caméras. Le problème de MTDA peut être abordé en adaptant un modèle spécialisé par domaine cible, mais cette solution est trop coûteuse dans de nombreuses applications réelles. Une approche consistant à mélanger plusieurs cibles pour la MTDA a été proposée, mais cette solution peut entraîner une réduction de la spécificité et de la précision du modèle. Dans cet article, nous proposons une nouvelle approche d'adaptation de domaine multi-cible non supervisée (MTDA) pour former un CNN capable de généraliser efficacement sur plusieurs domaines cibles. Notre méthode Multi-Teacher MTDA (MT-MTDA) repose sur la distillation de connaissances multi-enseignant (KD) pour distiller itérativement les connaissances des domaines cibles provenant de plusieurs enseignants vers un élève commun. Le processus KD est effectué progressivement, où l'élève est formé par chaque enseignant sur la façon d'effectuer l'UDA pour une cible spécifique, plutôt que d'apprendre directement des caractéristiques adaptées au domaine. Enfin, au lieu de combiner les connaissances provenant de chaque enseignant, MT-MTDA alterne entre les enseignants qui distillent les connaissances, préservant ainsi la spécificité de chaque cible (enseignant) lorsqu'il s'agit d'apprendre à s'adapter à l'élève. MT-MTDA est comparée aux méthodes les plus avancées sur plusieurs benchmarks UDA difficiles, et les résultats empiriques montrent que notre modèle proposé peut fournir un niveau considérablement plus élevé de précision sur plusieurs domaines cibles. Notre code est disponible à : https://github.com/LIVIAETS/MT-MTDA

Adaptation non supervisée multi-cible par distillation de connaissances | Articles de recherche récents | HyperAI