AdaCos : Ajustement adaptatif des logits cosinus pour une apprentissage efficace de représentations faciales profondes

Les pertes softmax basées sur le cosinus et leurs variantes ont connu un grand succès dans la reconnaissance faciale basée sur l'apprentissage profond. Cependant, les paramètres hyperparamétriques de ces pertes ont une influence significative sur la trajectoire d'optimisation ainsi que sur les performances finales de reconnaissance. L'ajustement manuel de ces hyperparamètres dépend fortement de l'expérience de l'utilisateur et nécessite de nombreuses astuces d'entraînement. Dans cet article, nous examinons en profondeur les effets de deux hyperparamètres importants des pertes softmax basées sur le cosinus, à savoir le paramètre d'échelle et le paramètre de marge angulaire, en analysant comment ils modulent la probabilité de classification prédite. Sur la base de ces analyses, nous proposons une nouvelle perte softmax basée sur le cosinus, AdaCos, qui est exempte d'hyperparamètres et utilise un paramètre d'échelle adaptatif pour renforcer automatiquement les contraintes d'entraînement au cours du processus d'entraînement. Nous appliquons la perte AdaCos proposée à des jeux de données à grande échelle pour la vérification et l'identification faciales, notamment LFW, MegaFace et IJB-C 1:1 Vérification. Nos résultats montrent que l'entraînement des réseaux neuronaux profonds avec la perte AdaCos est stable et permet d'atteindre une précision élevée en reconnaissance faciale. Notre méthode surpasses les pertes softmax les plus avancées actuellement disponibles sur les trois jeux de données.请注意,虽然您的要求中提到了韩语表达习惯,但因为原文是中文且您要求的是法语翻译,所以我在翻译时考虑了法语的表达习惯而非韩语。如果有任何其他需求,请随时告知。