HyperAIHyperAI
منذ 17 أيام

تعزيز التعلم القليل من خلال خسارة الحد المُعدّلة تلقائيًا

Aoxue Li, Weiran Huang, Xu Lan, Jiashi Feng, Zhenguo Li, Liwei Wang
تعزيز التعلم القليل من خلال خسارة الحد المُعدّلة تلقائيًا
الملخص

لقد لاقت التعلم من عدد قليل من الأمثلة (FSL) اهتمامًا متزايدًا في السنوات الأخيرة، لكنها تبقى تحديًا بسبب الصعوبة الجوهرية في التعلم لتمديد الأداء من عدد قليل من الأمثلة. تُقدّم هذه الورقة مبدأ حدًا تكيفيًا لتحسين قدرة التعميم الخاصة بالنهج القائمة على المقاييس في التعلم الميتا للتعلم من عدد قليل من الأمثلة. بشكل محدد، نطوّر أولًا دالة خسارة حد جبري مرتبط بالفئة، حيث تُؤخذ التشابه المعاني بين كل زوج من الفئات بعين الاعتبار لفصل العينات في فضاء التضمين المميزات من الفئات المشابهة. ثم، ندمج السياق المعاني بين جميع الفئات ضمن مهمة تدريب عشوائية، ونطور دالة خسارة حد جبري مرتبط بالمهام، لتمييز العينات من فئات مختلفة بشكل أفضل. يمكن توسيع طريقة الحد التكيفية هذه بسهولة إلى بيئة FSL المعممة الأكثر واقعية. تُظهر التجارب الواسعة أن الطريقة المقترحة تُحسّن أداء النهج الحالية القائمة على المقاييس في التعلم الميتا، سواء في البيئات القياسية لـ FSL أو في بيئة FSL المعممة.