DAS : Échantillonnage fortement ancré pour l'apprentissage profond de métriques

L'apprentissage métrique profond (Deep Metric Learning, DML) vise à apprendre une fonction d'encodage permettant de projeter des données sémantiquement similaires dans des régions proches de l'espace d'encodage, jouant un rôle fondamental dans de nombreuses applications telles que la recherche d'images ou la reconnaissance faciale. Toutefois, les performances des méthodes DML dépendent souvent fortement des stratégies d'échantillonnage utilisées pour sélectionner des données pertinentes dans l'espace d'encodage durant l'entraînement. En pratique, les encodages dans cet espace sont obtenus à partir de modèles profonds, dont l'espace d'encodage présente souvent des zones vides en raison de l'absence de points d'entraînement, ce qui donne lieu à ce qu'on appelle le problème des « encodages manquants ». Ce phénomène peut altérer la qualité des échantillons, entraînant une dégradation des performances du DML. Dans ce travail, nous étudions comment atténuer ce problème des « encodages manquants » afin d'améliorer la qualité de l'échantillonnage et d'obtenir un DML plus efficace. À cette fin, nous proposons un schéma d'échantillonnage densément ancré (Densely-Anchored Sampling, DAS), qui considère chaque encodage associé à un point de données comme un « ancrage » et exploite l'espace d'encodage proche de cet ancrage pour générer de manière dense des encodages sans points de données. Plus précisément, nous proposons d’exploiter l’espace d’encodage autour d’un seul ancrage à l’aide d’une mise à l’échelle discriminante des caractéristiques (Discriminative Feature Scaling, DFS), et autour de plusieurs ancrages grâce au décalage de transformation mémorisée (Memorized Transformation Shifting, MTS). Ainsi, en combinant les encodages avec et sans points de données, nous pouvons fournir un plus grand nombre d’encodages pour faciliter le processus d’échantillonnage, ce qui améliore significativement les performances du DML. Notre méthode s’intègre aisément dans les cadres existants de DML sans nécessiter de modifications complexes, et améliore directement leurs performances. Des expériences étendues sur trois jeux de données standard démontrent l’efficacité et la supériorité de notre approche.