Perte de substitution Recall@k avec grands minibatchs et Similarité Mixup

Ce travail se concentre sur l'apprentissage de modèles de représentation visuelle profonde pour la recherche, en explorant l'interaction entre une nouvelle fonction de perte, la taille du lot (batch size) et une nouvelle approche de régularisation. L'optimisation directe, par descente de gradient, d'une métrique d'évaluation n'est pas possible lorsque celle-ci est non différentiable, ce qui est précisément le cas du rappel (recall) en recherche. Ce travail propose donc une fonction de perte différentiable comme substitut du rappel. Grâce à une implémentation permettant de contourner les contraintes matérielles mémoire des GPU, la méthode permet d'entraîner avec une taille de lot très élevée, essentielle pour des métriques calculées sur l'ensemble de la base de données de recherche. Elle est renforcée par une approche efficace de régularisation mixup, opérant sur des similarités scalaires par paires et augmentant virtuellement la taille du lot. La méthode proposée atteint des performances de pointe sur plusieurs benchmarks de recherche d'images lorsqu'elle est utilisée pour l'apprentissage de métriques profondes. Pour la reconnaissance au niveau de l'instance, elle surpasse des approches similaires qui s'appuient sur une approximation de la précision moyenne (average precision).