GEFF: تحسين نموذج إعادة التعرف على الأشخاص مع تغيير الملابس بأي نوع باستخدام تحسين المعرض باستخدام ميزات الوجه

في مشكلة التعرف على الهوية مع تغيير الملابس (CC-ReID)، يكون الهدف، عند إعطاء عينة استعلام لشخص ما، هو تحديد الهوية الصحيحة بناءً على مجموعة مرجعية مُوسومة (gallery) تظهر فيها نفس الشخص بملابس مختلفة. تسعى عدة نماذج إلى التصدي لهذا التحدي من خلال استخراج سمات غير مرتبطة بالملابس. ومع ذلك، لا تزال أداء هذه النماذج أقل في البيئة التي تتضمن تغيير الملابس مقارنةً بالبيئة التي تُظهر فيها الشخص بملابس متشابهة في المجموعة المرجعية. وبما أن السمات المرتبطة بالملابس غالبًا ما تكون السمات المهيمنة في البيانات، نقترح عملية جديدة نسميها "تعزيز المجموعة المرجعية" (Gallery Enrichment)، لاستغلال هذه السمات. في هذه العملية، نُثري المجموعة المرجعية الأصلية بإضافة عينات استعلام بناءً على سمات الوجه باستخدام خوارزمية غير مراقبة. علاوةً على ذلك، نُظهر أن دمج وحدات التعرف على الهوية (ReID) واستخراج سمات الوجه مع المجموعة المرجعية المُثَمَّرة يؤدي إلى نموذج ReID أكثر دقة، حتى بالنسبة لعينات الاستعلام التي تُظهر ملابس جديدة لا تحتوي على وجوه. كما نُشير إلى أن المعايير الحالية لاختبار CC-ReID لا تمثل بالكامل السيناريوهات الواقعية، ونُقدّم مجموعة بيانات فيديو جديدة لـ CC-ReID تُسمى 42Street، مبنية على مسرحية تمثيلية تضم مشاهد مزدحمة وتغييرات متعددة في الملابس. عند تطبيق طريقة العرض (GEFF) على عدة نماذج ReID، تُظهر تحسينًا متوسطًا بنسبة 33.5% و6.7% في مقياس Top-1 لحالة تغيير الملابس على معايير PRCC وLTCC على التوالي. وبالإضافة إلى أحدث نماذج ReID، تُحقق طريقة العرض نتائج جديدة قياسية (SOTA) على معايير PRCC وLTCC وCCVID وLaST وVC-Clothes، بالإضافة إلى مجموعة البيانات المقترحة 42Street.