HyperAIHyperAI
il y a 17 jours

Perte contrastive centrée pour l'apprentissage métrique

Bolun Cai, Pengfei Xiong, Shangxuan Tian
Perte contrastive centrée pour l'apprentissage métrique
Résumé

L'apprentissage par contraste est un thème central dans le domaine de l'apprentissage métrique. Toutefois, l'extraction de paires contrastives efficaces demeure un défi en raison de facteurs tels que la taille de lot limitée, la distribution déséquilibrée des données et le risque de surapprentissage. Dans cet article, nous proposons une nouvelle fonction d'apprentissage métrique appelée Center Contrastive Loss, qui maintient une banque de centres par classe et compare ces centres catégoriels aux points de requête à l’aide d’une perte contrastive. Cette banque de centres est mise à jour en temps réel afin d’accélérer la convergence du modèle, sans nécessiter de stratégies complexes d’extraction d’échantillons. Les centres catégoriels agissent comme des proxies de classification bien optimisés, permettant de rééquilibrer le signal de supervision de chaque classe. En outre, la perte proposée combine les avantages des approches contrastives et classificatoires en réduisant les variations intra-classe tout en renforçant les différences inter-classe, ce qui améliore ainsi la puissance discriminative des embeddings. Nos résultats expérimentaux, illustrés à la Figure 1, montrent qu’un réseau standard (ResNet50) entraîné avec notre perte atteint des performances de pointe et une convergence plus rapide.

Perte contrastive centrée pour l'apprentissage métrique | Articles de recherche récents | HyperAI