Ein kulturell sensibler Benchmark für die Person-Wiedererkennung in schlichter Kleidung

Person Re-Identification (ReID) ist eine grundlegende Aufgabe im Bereich der Computer Vision mit kritischen Anwendungen in der Überwachung und Sicherheit. Trotz der Fortschritte in den letzten Jahren haben die meisten existierenden ReID-Modelle Schwierigkeiten, sich auf verschiedene kulturelle Kontexte zu verallgemeinern, insbesondere in islamischen Regionen wie dem Iran, wo schlichte Kleidungsstile vorherrschen. Bestehende Datensätze stellen hauptsächlich westliche und ostasiatische Mode dar, was ihre Anwendbarkeit in diesen Einstellungen einschränkt. Um diese Lücke zu schließen, stellen wir den Iran University of Science and Technology Person Re-Identification (IUST_PersonReId)-Datensatz vor. Dieser Datensatz ist darauf ausgelegt, die einzigartigen Herausforderungen von ReID in neuen kulturellen Umgebungen widerzuspiegeln, wobei besonderes Augenmerk auf schlichte Kleidung und vielfältige Szenarien aus dem Iran gelegt wird, einschließlich Märkten, Campus-Geländen und Moscheen.Experimente mit IUST_PersonReId unter Verwendung fortschrittlicher Modelle wie Semantic Controllable Self-supervised Learning (SOLIDER) und Contrastive Language-Image Pretraining Re-Identification (CLIP-ReID) zeigen erhebliche Leistungsabfälle im Vergleich zu Benchmarks wie Market1501 und Multi-Scene MultiTime (MSMT17). Genauer gesagt zeigt SOLIDER einen Rückgang des Mean Average Precision (mAP) um 50,75 % und 23,01 % im Vergleich zu Market1501 und MSMT17, während CLIP-ReID einen Rückgang des mAP um 38,09 % und 21,74 % aufweist. Diese Ergebnisse unterstreichen die Herausforderungen durch Verdeckungen und begrenzte charakteristische Merkmale. Sequenzbasierte Bewertungen zeigen Verbesserungen durch die Nutzung zeitlicher Kontextinformationen, was das Potenzial des Datensatzes zur Entwicklung kultursensibler und robuster ReID-Systeme hervorhebt. IUST_PersonReId bietet eine wichtige Ressource zur Bewältigung von Fairness- und Bias-Fragen in der globalen ReID-Forschung.