Mesure de confiance calibrée attentive au voisinage pour l'apprentissage profond de métriques

L’apprentissage métrique profond a connu des progrès prometteurs ces dernières années, suite au succès de l’apprentissage profond. Il a été efficacement appliqué à des problèmes tels que l’apprentissage par peu d’exemples, la récupération d’images et la classification en ensemble ouvert. Toutefois, mesurer la confiance d’un modèle d’apprentissage métrique profond et identifier les prédictions peu fiables restent des défis non résolus. Ce papier se concentre sur la définition d’une métrique de confiance calibrée et interprétable, qui reflète étroitement la précision de classification. En effectuant directement des comparaisons de similarité dans l’espace latent à l’aide de la métrique de distance apprise, notre approche approche la distribution des points de données de chaque classe à l’aide d’une fonction de lissage par noyau gaussien. L’algorithme de calibration post-traitement basé sur la métrique de confiance proposée, appliqué sur un ensemble de validation non utilisé, améliore la généralisation et la robustesse des modèles d’apprentissage métrique profond les plus avancés, tout en fournissant une estimation interprétable de la confiance. Des tests étendus sur quatre jeux de données standard populaires (Caltech-UCSD Birds, Stanford Online Product, Stanford Car-196 et In-shop Clothes Retrieval) montrent des améliorations cohérentes, même en présence de décalages de distribution dans les données de test, notamment en cas de bruit supplémentaire ou d’exemples adverses.