المرور الرسالي ذاتي الانتباه للتعلم القليل التباين

لدى البشر قدرة فريدة على تعلم تمثيلات جديدة من أمثلة قليلة جداً وبأقل إشراف أو بدونه. ومع ذلك، تتطلب نماذج التعلم العميق كميات كبيرة من البيانات والإشراف للوصول إلى مستوى أداء مرضٍ. يسعى التعلم القليل غير المشرف (U-FSL) إلى جسر هذه الفجوة بين الآلات والبشر. مستوحى من قدرة شبكات الجرافات العصبية (GNNs) على اكتشاف العلاقات المعقدة بين العينات، نقترح نهجًا جديدًا للتعلم التبايني بناءً على الرسائل ذاتية الانتباه (SAMP-CLR) لتدريب U-FSL مسبقًا. كما نقترح استراتيجية تعديل دقيقة تستند إلى النقل الأمثل (OT) (نطلق عليها OpT-Tune) لتعزيز الوعي بالمهمة بكفاءة في إطارنا الجديد للتصنيف القليل غير المشرف من النهاية إلى النهاية (SAMPTransfer). تؤكد نتائج تجاربنا الواسعة فعالية SAMPTransfer في مجموعة متنوعة من سيناريوهات التصنيف القليل غير المشرف، مما يجعله يحقق أفضل الأداء الحالي لـ U-FSL في مقاييس miniImagenet و tieredImagenet، بتحسينات تصل إلى أكثر من 7% وأكثر من 5% على التوالي. كما تؤكد تحقيقاتنا الإضافية أن SAMPTransfer يظل متساويًا مع بعض الأساليب المشرف عليها في miniImagenet ويتفوق على جميع الأساليب الحالية لـ U-FSL في سيناريو عبر المجالات الصعب. يمكن العثور على رمزنا البرمجي في مستودع GitHub الخاص بنا على الرابط https://github.com/ojss/SAMPTransfer/.