
Les recherches sur la tâche de réidentification (ReID) connaissent un essor croissant en vision par ordinateur, en raison de ses nombreuses applications pratiques et de sa nature d’apprentissage zéro-shot. Ce papier propose un modèle de ReID à granularité fine, FGReID, efficace sur le plan computationnel, qui constitue l’un des premiers modèles à unifier la ReID d’images et de vidéos tout en maintenant un nombre minimal de paramètres d’entraînement. FGReID exploite l’apprentissage préalable basé sur des vidéos ainsi que l’attention sur les caractéristiques spatiales afin d’améliorer les performances sur les tâches de ReID vidéo et d’image. FGReID atteint l’état de l’art (SOTA) sur les benchmarks vidéo de réidentification de personnes MARS, iLIDS-VID et PRID-2011. L’élimination du pooling temporel permet d’obtenir un modèle de ReID d’image qui dépasse l’état de l’art sur les benchmarks d’image de personnes CUHK01 et Market1501. FGReID atteint également des performances quasi-état de l’art sur le jeu de données de réidentification de véhicules VeRi, démontrant ainsi sa capacité de généralisation. Par ailleurs, une étude d’ablation est menée afin d’analyser les caractéristiques clés influençant les performances du modèle sur les tâches de ReID. Enfin, nous discutons des dilemmes éthiques liés aux tâches de ReID, notamment le risque d’usage abusif. Le code associé à ce travail est disponible publiquement à l’adresse suivante : https://github.com/ppriyank/Fine-grained-ReIdentification.