إعادة التفكير في تحسين الدقة المتوسطة: كفاية عقوبة الأمثلة السلبية قبل الإيجابية فقط

تم دراسة تحسين تقريب دقة المتوسط (AP) على نطاق واسع في مجال استرجاع الصور. ومع أن هذه الأساليب تعتمد على تعريف AP، فإنها تأخذ بعين الاعتبار ترتيب كل من المثاليات السلبية والإيجابية قبل كل مثالية إيجابية. ومع ذلك، نحن ندعي أن العقوبة تكفي فقط على المثاليات السلبية التي تسبق المثالية الإيجابية، لأن الخسارة تنشأ فقط من هذه المثاليات السلبية. ولتحقيق ذلك، نقترح خسارة جديدة تُسمى "Penalizing Negative instances before Positive ones" (PNP)، والتي يمكنها تقليل عدد المثاليات السلبية التي تسبق كل مثالية إيجابية بشكل مباشر. بالإضافة إلى ذلك، تعتمد الأساليب القائمة على AP على استراتيجية تعيين تدرج ثابتة وغير مثلى. لذا، قمنا بدراسة منهجية لحلول مختلفة لتعيين التدرجات من خلال بناء دوال مشتقة للخسارة، مما أدى إلى تطوير PNP-I ذات الدوال المشتقة المتزايدة وPNP-D ذات الدوال المشتقة المتناقصة. تركز PNP-I على المثاليات الإيجابية الصعبة من خلال تخصيص تدرجات أكبر لها، وتحاول جعل جميع المثاليات ذات الصلة أقرب إلى بعضها. في المقابل، تهتم PNP-D أقل بهذه المثاليات وتصحيحها ببطء. في معظم البيانات الواقعية، يحتوي كل فئة عادةً على عدة مجموعات محلية (local clusters). تجمع PNP-I هذه المجموعات بشكل أعمى، بينما تحتفظ PNP-D بها كما هي. لذلك، تُظهر PNP-D أداءً أفضل. أظهرت التجارب على ثلاث مجموعات بيانات قياسية لاسترجاع الصور نتائج متسقة مع التحليل أعلاه. وتوصلت التقييمات الواسعة إلى أن PNP-D تحقق أفضل أداء ممكن حتى الآن. يمكن الوصول إلى الكود من خلال: https://github.com/interestingzhuo/PNPloss