HyperAIHyperAI
il y a 13 jours

Apprentissage adaptatif de représentation graphique pour la ré-identification de personnes dans les vidéos

Yiming Wu, Omar El Farouk Bourahla, Xi Li, Fei Wu, Qi Tian, Xue Zhou
Apprentissage adaptatif de représentation graphique pour la ré-identification de personnes dans les vidéos
Résumé

Ces dernières années, on a assisté à des progrès remarquables dans l’application des modèles d’apprentissage profond à la réidentification de personnes dans les vidéos (Re-ID vidéo). Un facteur clé pour la réidentification vidéo réside dans la construction efficace de représentations de caractéristiques vidéo discriminantes et robustes, capables de s’adapter à de nombreuses situations complexes. Les approches basées sur les parties exploitent l’attention spatiale et temporelle afin d’extraire des caractéristiques locales représentatives. Toutefois, les méthodes antérieures négligent les corrélations entre ces parties. Afin d’exploiter les relations existant entre les différentes parties, nous proposons une nouvelle méthode d’apprentissage de représentation graphique adaptative pour la réidentification de personnes en vidéo, permettant ainsi des interactions contextuelles entre les caractéristiques régionales pertinentes. Plus précisément, nous utilisons la connexion d’alignement de posture et la connexion d’affinité de caractéristiques pour construire un graphe d’adjacence sensible à la structure, qui modélise les relations intrinsèques entre les nœuds du graphe. Nous réalisons une propagation de caractéristiques sur ce graphe d’adjacence afin de raffiner itérativement les caractéristiques régionales, en tenant compte des informations des nœuds voisins pour la représentation des caractéristiques partielles. Pour apprendre des représentations compactes et discriminantes, nous proposons également une nouvelle régularisation sensible à la résolution temporelle, qui impose une cohérence entre les différentes résolutions temporelles pour une même identité. Nous menons des évaluations étendues sur quatre benchmarks : iLIDS-VID, PRID2011, MARS et DukeMTMC-VideoReID. Les résultats expérimentaux démontrent des performances compétitives, confirmant l’efficacité de la méthode proposée. Le code est disponible à l’adresse suivante : https://github.com/weleen/AGRL.pytorch.

Apprentissage adaptatif de représentation graphique pour la ré-identification de personnes dans les vidéos | Articles de recherche récents | HyperAI