HyperAIHyperAI

Command Palette

Search for a command to run...

تعزيز التعلم القليل من خلال خسارة الحد المُعدّلة تلقائيًا

Aoxue Li Weiran Huang Xu Lan Jiashi Feng Zhenguo Li Liwei Wang

الملخص

لقد لاقت التعلم من عدد قليل من الأمثلة (FSL) اهتمامًا متزايدًا في السنوات الأخيرة، لكنها تبقى تحديًا بسبب الصعوبة الجوهرية في التعلم لتمديد الأداء من عدد قليل من الأمثلة. تُقدّم هذه الورقة مبدأ حدًا تكيفيًا لتحسين قدرة التعميم الخاصة بالنهج القائمة على المقاييس في التعلم الميتا للتعلم من عدد قليل من الأمثلة. بشكل محدد، نطوّر أولًا دالة خسارة حد جبري مرتبط بالفئة، حيث تُؤخذ التشابه المعاني بين كل زوج من الفئات بعين الاعتبار لفصل العينات في فضاء التضمين المميزات من الفئات المشابهة. ثم، ندمج السياق المعاني بين جميع الفئات ضمن مهمة تدريب عشوائية، ونطور دالة خسارة حد جبري مرتبط بالمهام، لتمييز العينات من فئات مختلفة بشكل أفضل. يمكن توسيع طريقة الحد التكيفية هذه بسهولة إلى بيئة FSL المعممة الأكثر واقعية. تُظهر التجارب الواسعة أن الطريقة المقترحة تُحسّن أداء النهج الحالية القائمة على المقاييس في التعلم الميتا، سواء في البيئات القياسية لـ FSL أو في بيئة FSL المعممة.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp
تعزيز التعلم القليل من خلال خسارة الحد المُعدّلة تلقائيًا | مستندات | HyperAI