HyperAIHyperAI

Command Palette

Search for a command to run...

الهامش السلبي يهمّ: فهم الهامش في التصنيف القائم على عدد قليل من الأمثلة

Bin Liu Yue Cao Yutong Lin Qi Li Zheng Zhang Mingsheng Long Han Hu

الملخص

يُقدّم هذا البحث خسارة حد سالب (negative margin loss) للطرق المستندة إلى التعلم القياسي (metric learning) في التعلم القائم على عدد قليل من الأمثلة (few-shot learning). تُظهر خسارة الحد السالب أداءً متفوّقًا بشكل كبير مقارنةً بخسارة سويفت مات (softmax loss) التقليدية، وتحقق دقة متقدمة على مستوى العالم (state-of-the-art) في ثلاث معايير قياسية شائعة لتصنيف الأمثلة القليلة، وباستخدام عدد محدود جدًا من التحسينات الإضافية. تُعد هذه النتائج مخالفة للطريقة الشائعة في مجال التعلم القياسي، التي تفترض أن الحد يكون صفرًا أو موجبًا. وللتفهم العميق لسبب أداء خسارة الحد السالب بشكل جيد في تصنيف الأمثلة القليلة، نُحلّل قدرة التمييز (discriminability) للسمات المُتعلّمة بالنسبة لحدود مختلفة، سواءً في الفئات التدريبية أو الفئات الجديدة، من خلال تحليل تجريبي ونظري. ونجد أنّ، رغم أن الحد السالب يقلّل من قدرة التمييز للسمات في الفئات التدريبية، فإنه قد يُقلّل من احتمال تعيين عيّنات من نفس الفئة الجديدة إلى قمم متعددة أو مجموعات منفصلة (multiple peaks or clusters)، وبالتالي يُعزّز تمييز الفئات الجديدة. تم توفير الكود على الرابط التالي: https://github.com/bl0/negative-margin.few-shot.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp