Re-identification de personnes à partir d'une seule image avec prédiction et régularisation de la démarche

La reconnaissance de personnes avec changement de vêtements (CC-ReID) vise à apparer les mêmes individus à différents endroits sur une longue durée, par exemple sur plusieurs jours, et rencontre donc inévitablement le défi du changement de vêtements. Dans cet article, nous nous concentrons sur la gestion efficace du problème CC-ReID dans un contexte plus difficile, c'est-à-dire à partir d'une seule image, ce qui permet une identification piétonne en temps réel sans latence pour les applications de surveillance. Plus précisément, nous introduisons la reconnaissance de la démarche comme tâche auxiliaire pour inciter le modèle d'Image ReID à apprendre des représentations indépendantes des vêtements en utilisant des informations de démarche personnelles uniques et indépendantes des vêtements. Nous nommons ce cadre GI-ReID. GI-ReID adopte une architecture à deux flux comprenant un flux d'Image ReID et un flux auxiliaire de reconnaissance de la démarche (Gait-Stream). Le Gait-Stream, qui est éliminé lors de l'inférence pour une efficacité computationnelle maximale, agit comme un régulateur encourageant le flux ReID à capturer des caractéristiques biométriques invariantes aux vêtements pendant l'entraînement. Pour obtenir des indices de mouvement temporellement continus à partir d'une seule image, nous concevons un module de prédiction de séquence de démarche (Gait Sequence Prediction - GSP) pour le Gait-Stream afin d'enrichir les informations de démarche. Enfin, une cohérence sémantique de haut niveau entre les deux flux est imposée pour une régularisation efficace des connaissances. Les expériences menées sur plusieurs benchmarks d'Image ReID avec changement de vêtements, tels que LTCC, PRCC, Real28 et VC-Clothes, montrent que GI-ReID offre des performances favorables comparées aux méthodes actuelles les plus avancées. Les codes sont disponibles sur https://github.com/jinx-USTC/GI-ReID.