HyperAIHyperAI
il y a 2 mois

Apprentissage de Métriques Profondes avec Perte de Triplets Hiérarchique

Weifeng Ge; Weilin Huang; Dengke Dong; Matthew R. Scott
Apprentissage de Métriques Profondes avec Perte de Triplets Hiérarchique
Résumé

Nous présentons une nouvelle perte de triplet hiérarchique (HTL) capable de collecter automatiquement des échantillons d'entraînement informatifs (triplets) à travers un arbre hiérarchique défini qui encode des informations de contexte global. Cela nous permet de surmonter la principale limitation du tirage aléatoire lors de l'entraînement d'une perte de triplet conventionnelle, qui est un problème central pour l'apprentissage profond par métrique. Nos contributions principales sont doubles. (i) Nous construisons un arbre hiérarchique au niveau des classes où les classes voisines sont fusionnées récursivement. La structure hiérarchique capture naturellement la distribution intrinsèque des données sur l'ensemble de la base de données. (ii) Nous formulons le problème de collecte de triplets en introduisant une nouvelle marge violée, qui est calculée dynamiquement en fonction de l'arbre hiérarchique conçu. Cela lui permet de sélectionner automatiquement des échantillons difficiles et significatifs sous la guidance du contexte global. Il encourage le modèle à apprendre des caractéristiques plus discriminantes à partir de classes visuellement similaires, ce qui conduit à une convergence plus rapide et à une meilleure performance. Notre méthode est évaluée sur les tâches de recherche d'images et de reconnaissance faciale, où elle dépasse substantiellement la perte de triplet standard avec une amélioration allant jusqu'à 1% à 18%. Elle atteint des performances inédites sur plusieurs benchmarks, avec beaucoup moins d'itérations d'apprentissage.