إعادة التعرف على الأشخاص عند تغيير الملابس باستخدام نمط RGB فقط

الحل الرئيسي لمشكلة إعادة التعرف على الأشخاص الذين يغيرون ملابسهم (إعادة التعرف) يتمثل في استخراج الخصائص غير المرتبطة بالملابس، مثل الوجه، تسريحة الشعر، شكل الجسم والخطوة. تركز معظم الأعمال الحالية بشكل أساسي على نمذجة شكل الجسم من المعلومات متعددة الوسائط (مثل المظاهر والرسومات)، ولكنها لا تستفيد بشكل كامل من المعلومات غير المرتبطة بالملابس في الصور الأصلية RGB. في هذا البحث، نقترح خسارة معادية تعتمد على الملابس (CAL) لاستخراج الخصائص غير المرتبطة بالملابس من الصور الأصلية RGB عن طريق تقليل قدرة النموذج التنبؤية فيما يتعلق بالملابس. أظهرت التجارب الواسعة أن استخدام الصور RGB فقط يجعل CAL يتفوق على جميع الأساليب المتقدمة حديثًا في مقاييس إعادة التعرف على الأشخاص الذين يغيرون ملابسهم الأكثر استخدامًا. بالإضافة إلى ذلك، تحتوي الفيديوهات مقارنةً بالصور على معلومات ظاهرية أكثر غنى ومعلومات زمنية إضافية يمكن استخدامها لنمذجة الأنماط المكانية-الزمانية المناسبة لمساعدة إعادة التعرف على الأشخاص الذين يغيرون ملابسهم. نظرًا لعدم وجود مجموعة بيانات عامة متاحة لإعادة التعرف على الأشخاص الذين يغيرون ملابسهم في الفيديو، فقد ساهمنا بمجموعة بيانات جديدة باسم CCVID وأظهرنا أنه يوجد مجال كبير للتحسين في نمذجة المعلومات المكانية-الزمانية. يمكن الوصول إلى الكود ومجموعة البيانات الجديدة عبر الرابط التالي:https://github.com/guxinqian/Simple-CCReID.