خسارة متوازنة الميزات للتمييز البصري طويل الذيل

تتعرض الشبكات العصبية العميقة غالبًا لانخفاض الأداء عند استخدام بيانات تدريب ذات توزيع مائل (long-tailed)، حيث تهيمن فئات العدد الكبير (الغالبية) على عملية التدريب، مما يؤدي إلى نموذج متحيز. لقد بذلت الدراسات الحديثة جهودًا كبيرة لحل هذه المشكلة من خلال استخلاص تمثيلات جيدة من فضاء البيانات، لكن قلّ من هذه الدراسات التي تأخذ بعين الاعتبار تأثير المعيار المميز (feature norm) على النتائج المتوقعة. ولهذا، نعالج مشكلة التوزيع المائل من منظور فضاء الميزات، ونُقدّم ما يُسمى بـ "دالة الخسارة المُوازنة من حيث الميزات" (feature-balanced loss). وبشكل محدد، نشجع على زيادة معايير الميزات (feature norms) للفئات الضعيفة (الذيلية) من خلال تزويدها بتحفيز نسبيًا أقوى. علاوة على ذلك، يتم زيادة شدة هذا التحفيز تدريجيًا وفقًا لمنهجية التعلم التدريجي (curriculum learning)، مما يعزز قدرة الفئات الضعيفة على التعميم، مع الحفاظ على أداء الفئات القوية (الرأسية). أظهرت تجارب واسعة على عدة معايير شائعة للتعرف على التوزيع المائل نتائج متفوقة مقارنةً بالأساليب المتطورة حديثًا، مما يؤكد فعالية دالة الخسارة المقترحة.