Benchmarks pour la réidentification de personnes invariantes à la corruption

Lors du déploiement d'un modèle de réidentification de personnes (ReID) dans des applications critiques en matière de sécurité, il est essentiel de comprendre la robustesse du modèle face à une variété d'altérations d'images. Cependant, les évaluations actuelles de la réidentification de personnes ne prennent en compte que les performances sur des jeux de données propres et négligent les images dans divers scénarios altérés. Dans cette étude, nous établissons de manière exhaustive six benchmarks ReID pour l'apprentissage d'une représentation invariante aux altérations. Dans le domaine de la réidentification de personnes, nous sommes les premiers à mener une étude approfondie sur l'apprentissage invariante aux altérations dans des jeux de données mono- et multi-modalités, y compris Market-1501, CUHK03, MSMT17, RegDB et SYSU-MM01. Après avoir reproduit et examiné les performances en termes de robustesse de 21 méthodes ReID récentes, nous avons fait plusieurs observations : 1) les modèles basés sur les transformers sont plus robustes face aux images altérées par rapport aux modèles basés sur les CNN (Convolutional Neural Networks), 2) augmenter la probabilité d'effacement aléatoire (méthode d'augmentation couramment utilisée) nuit à la robustesse du modèle face aux altérations, 3) la généralisation inter-jeux de données s'améliore lorsque la robustesse face aux altérations augmente. En analysant ces observations, nous proposons une ligne de base solide pour les jeux de données ReID mono- et multi-modalités qui atteint une meilleure robustesse face à diverses altérations. Nos codes sont disponibles sur https://github.com/MinghuiChen43/CIL-ReID.