خسارة المساواة v2: نهج جديد للتوازن التدرجي في اكتشاف الأشياء ذات الذيل الطويل

تُعدّ طرق التدريب المنفصلة المقترحة حديثًا نموذجًا رائدًا في مجال كشف الأشياء ذات الذيل الطويل. ومع ذلك، فإنها تتطلب مرحلة تعديل دقيقة إضافية، وقد يؤدي تحسين التمثيل والتصنيف بشكل منفصل إلى نتائج غير مثلى. ومع ذلك، لا تزال طرق التدريب الشاملة، مثل خسارة المساواة (EQL)، تؤدي أداءً أقل من طرق التدريب المنفصلة. في هذا البحث، نكشف أن المشكلة الرئيسية في كشف الأشياء ذات الذيل الطويل هي عدم توازن الدرجات بين الإيجابيات والسالبيات، ونجد أن EQL لا تعالج هذه المشكلة بشكل جيد. لمعالجة مشكلة عدم توازن الدرجات، نقدم إصدارًا جديدًا من خسارة المساواة يُسمى خسارة المساواة الإصدار الثاني (EQL v2)، وهو آلية إعادة وزن موجهة بالدرجة التي تعادل وتوازن عملية التدريب لكل فئة بشكل مستقل ومتساوٍ. تم إجراء تجارب واسعة النطاق على معيار LVIS الصعب. يتفوق EQL v2 على الخسارة الأصلية EQL بحوالي 4 نقاط في AP الشامل مع تحسينات تتراوح بين 14-18 نقطة في الفئات النادرة. وأهم من ذلك، أنه يتجاوز أيضًا طرق التدريب المنفصلة. بدون أي تعديل إضافي لمجموعة بيانات Open Images، يحسن EQL v2 الخسارة EQL بمقدار 7.3 نقطة AP، مما يظهر قدرته على التعميم القوية. تم إطلاق الكود في https://github.com/tztztztztz/eqlv2