Perte Axée sur le Point de Vue avec Régularisation Angulaire pour la Ré-identification de Personnes

Bien que des progrès considérables aient été réalisés récemment dans le domaine de la réidentification supervisée de personnes (Re-ID), cette tâche reste un défi visuel majeur en raison des variations de point de vue. La plupart des méthodes existantes basées sur le point de vue projettent les images issues de chaque perspective dans des sous-espaces de caractéristiques séparés et non liés. Ces approches modélisent uniquement la distribution au niveau de l’identité à l’intérieur d’un même point de vue, tout en ignorant les relations sous-jacentes entre différentes perspectives. Pour résoudre ce problème, nous proposons une nouvelle méthode, nommée Viewpoint-Aware Loss with Angular Regularization (VA-reID). Contrairement à l’approche classique qui associe un sous-espace distinct à chaque point de vue, notre méthode projette les caractéristiques issues de différentes perspectives sur une hypersphère unifiée, permettant ainsi une modélisation efficace de la distribution des caractéristiques à la fois au niveau de l’identité et au niveau du point de vue. En outre, au lieu de traiter les différentes perspectives comme des étiquettes rigides, comme dans la classification conventionnelle des points de vue, nous introduisons une régularisation adaptative d’étiquetage flou orientée vers le point de vue (VALSR), qui attribue des étiquettes souples adaptatives aux représentations de caractéristiques. Cette régularisation permet de résoudre efficacement l’ambiguïté liée à l’affectation des étiquettes des clusters de points de vue. Des expériences étendues sur les jeux de données Market1501 et DukeMTMC-reID démontrent que notre méthode surpasser les méthodes de pointe actuelles en réidentification supervisée.