Circle Loss : Une perspective unifiée de l'optimisation de la similarité entre paires

Cet article présente une perspective basée sur l'optimisation de la similarité entre paires pour l'apprentissage profond de caractéristiques, visant à maximiser la similarité intra-classe $s_p$ tout en minimisant la similarité inter-classe $s_n$. Nous observons que la majorité des fonctions de perte, notamment la perte triplet et la combinaison de la fonction softmax avec la perte entropie croisée, intègrent $s_n$ et $s_p$ dans des paires de similarité et cherchent à réduire l'écart $(s_n - s_p)$. Cette approche d'optimisation s'avère rigide, car l'intensité de pénalité appliquée à chaque score de similarité individuel est contrainte à être égale. Notre intuition repose sur le fait qu’un score de similarité s’écartant fortement de sa valeur optimale devrait être davantage mis en avant. Ainsi, nous proposons simplement de réattribuer des poids aux différentes similarités afin de mettre en évidence les scores moins bien optimisés. Cette approche conduit à la définition d’une nouvelle fonction de perte, nommée Circle loss, du fait de sa frontière de décision circulaire. La Circle loss possède une formule unifiée applicable aux deux approches fondamentales de l’apprentissage profond de caractéristiques : l’apprentissage avec des étiquettes au niveau des classes et l’apprentissage avec des étiquettes par paires. De manière analytique, nous montrons que la Circle loss offre une approche d’optimisation plus souple, conduisant à une cible de convergence plus précise, par rapport aux fonctions de perte qui minimisent $(s_n - s_p)$. Expérimentalement, nous démontrons l’efficacité supérieure de la Circle loss sur diverses tâches d’apprentissage profond de caractéristiques. Sur des tâches telles que la reconnaissance faciale, la ré-identification de personnes et plusieurs jeux de données pour la recherche d’images à granularité fine, les performances atteintes sont comparables aux états de l’art.