HyperAIHyperAI
منذ 17 أيام

الثقة المستفادة من التعلّم الميتا للتعلّم القليل

Seong Min Kye, Hae Beom Lee, Hoirin Kim, Sung Ju Hwang
الثقة المستفادة من التعلّم الميتا للتعلّم القليل
الملخص

الاستنتاج التحويلي يُعد وسيلة فعّالة لمعالجة مشكلة نقص البيانات في بيئات التعلم بعينة قليلة (few-shot learning). إحدى التقنيات الشائعة للاستنتاج التحويلي في النهج القائمة على المقاييس في التعلم بعينة قليلة هي تحديث بروتوكول كل فئة باستخدام المتوسط الحسابي لأكثر أمثلة الاستفسار ثقة، أو المتوسط المرجح بالثقة لجميع عينات الاستفسار. ومع ذلك، يكمن التحدي هنا في أن ثقة النموذج قد تكون غير موثوقة، مما قد يؤدي إلى تنبؤات خاطئة. لمعالجة هذه المشكلة، نقترح تعلُّمًا متعدد المستويات (meta-learn) لثقة كل عينة استفسار، بهدف تعيين أوزان مثلى للعينات غير المصنفة، بحيث تُحسّن من أداء النموذج في الاستنتاج التحويلي على المهام غير المرئية. نحقّق ذلك من خلال تعلُّم متعدد المستويات لمسافة مُعدّلة حسب المدخلات (input-adaptive distance metric) على توزيع المهام تحت مختلف الاضطرابات في النموذج والبيانات، مما يُفرض اتساقًا في تنبؤات النموذج تحت مختلف أنواع عدم اليقين في المهام غير المرئية. علاوة على ذلك، نقترح بشكل إضافي منظمًا (regularization) يُفرض صراحةً اتساق التنبؤات عبر الأبعاد المختلفة لمتجه التضمين عالي الأبعاد. وقد قمنا بتحقيق التحقق من نموذجنا للتعلم بعينة قليلة مع ثقة مُتعلّمة متعدد المستويات على أربع مجموعات بيانات معيارية، حيث أظهر أداءً متفوّقًا بشكل كبير على النماذج القوية الحديثة، وحقق نتائج جديدة على مستوى الحد الأقصى (state-of-the-art). كما أظهرت التطبيقات الإضافية على مهام التعلم بعينة قليلة شبه المُشرَّف (semi-supervised few-shot learning) تحسينات كبيرة في الأداء مقارنة بالأساليب السابقة. يمكن الوصول إلى كود المصدر الخاص بخوارزميتنا عبر الرابط: https://github.com/seongmin-kye/MCT.

الثقة المستفادة من التعلّم الميتا للتعلّم القليل | أحدث الأوراق البحثية | HyperAI