الهامش السلبي يهمّ: فهم الهامش في التصنيف القائم على عدد قليل من الأمثلة

يُقدّم هذا البحث خسارة حد سالب (negative margin loss) للطرق المستندة إلى التعلم القياسي (metric learning) في التعلم القائم على عدد قليل من الأمثلة (few-shot learning). تُظهر خسارة الحد السالب أداءً متفوّقًا بشكل كبير مقارنةً بخسارة سويفت مات (softmax loss) التقليدية، وتحقق دقة متقدمة على مستوى العالم (state-of-the-art) في ثلاث معايير قياسية شائعة لتصنيف الأمثلة القليلة، وباستخدام عدد محدود جدًا من التحسينات الإضافية. تُعد هذه النتائج مخالفة للطريقة الشائعة في مجال التعلم القياسي، التي تفترض أن الحد يكون صفرًا أو موجبًا. وللتفهم العميق لسبب أداء خسارة الحد السالب بشكل جيد في تصنيف الأمثلة القليلة، نُحلّل قدرة التمييز (discriminability) للسمات المُتعلّمة بالنسبة لحدود مختلفة، سواءً في الفئات التدريبية أو الفئات الجديدة، من خلال تحليل تجريبي ونظري. ونجد أنّ، رغم أن الحد السالب يقلّل من قدرة التمييز للسمات في الفئات التدريبية، فإنه قد يُقلّل من احتمال تعيين عيّنات من نفس الفئة الجديدة إلى قمم متعددة أو مجموعات منفصلة (multiple peaks or clusters)، وبالتالي يُعزّز تمييز الفئات الجديدة. تم توفير الكود على الرابط التالي: https://github.com/bl0/negative-margin.few-shot.