HyperAIHyperAI
منذ 17 أيام

التعلم القليل بالاعتماد على الت régularisation لابلاس

{Imtiaz Masud Ziko; Jose Dolz; Eric Granger; Ismail Ben Ayed}
التعلم القليل بالاعتماد على الت régularisation لابلاس
الملخص

نُقدِّم طريقة استنتاج مُحَوِّلَة (transductive) مُنظَّمة بواسطة لابلاسيان (Laplacian-regularized inference) للوظائف ذات العينات القليلة (few-shot tasks). بالاعتماد على أي تضمين ميزات (feature embedding) تم تعلّمه من الفئات الأساسية، نُقلّل دالة تعيين ثنائية تربيعية تتضمّن حَدَّين: (1) حد أحادي (unary term) يُعيّن عينات الاستعلام إلى أقرب نموذج فئوي (class prototype)، و(2) حد زوجي (pairwise Laplacian term) يشجّع العينات القريبة في الاستعلام على تلقي تعيينات تسمية متسقة. يُعدّ استنتاجنا المُحَوِّلَة غير مُتَّخذٍ لتدريب نموذج الفئة الأساسية مجددًا، ويمكن اعتباره نوعًا من تجميع الرسوم البيانية (graph clustering) لمجموعة الاستعلام، مع احترام قيود الإشراف المُقدَّمة من مجموعة الدعم (support set). استنتجنا مُحسِّنًا فعّالًا حسابيًا لحدود تحقّق تخفيف (relaxation) دالتنا، والذي يُحسِّن التحديثات بشكل مستقل (متوازٍ) لكل عينة استعلام، مع ضمان التقارب. بعد تدريب بسيط باستخدام الدالة العشوائية (cross-entropy) على الفئات الأساسية، وبلا اعتماد على استراتيجيات تعليم متعددة معقدة (meta-learning)، أجرينا تجارب واسعة على خمسة معايير (benchmarks) للتعلم القليل. أظهرت طريقة "LaplacianShot" تفوقًا مستمرًا على أفضل الطرق الحالية بمدى كبير عبر نماذج مختلفة، وبيئات متنوعة، وقواعد بيانات متفاوتة. علاوةً على ذلك، فإن استنتاجنا المُحَوِّلَة سريع جدًا، حيث تقترب أوقات الحساب منها من أوقات الاستنتاج المباشر (inductive inference)، ويمكن استخدامها في مهام التعلم القليل على نطاق واسع.