BECLR: التعلم القليل😊 الصور المُحسَّن بالدُّفعات والمقارن

التعلم السريع من عينات مصنفة قليلة هو صفة أساسية تميز الآلات عن البشر في عصر التعلم العميق للتمثيلات. يهدف التعلم القليل الغير مشرف (U-FSL) إلى جسر هذه الفجوة من خلال التخلي عن الاعتماد على التسميات أثناء التدريب. متأثرين بنجاح نماذج التعلم المقارن في مجال U-FSL، نتناول بشكل هيكلها نقاط الضعف في مرحلتي التدريب الأولي والاستدلال النهائى. نقترح وحدة ذاكرة متجمعة ديناميكياً (DyCE) جديدة لتعزيز فضاء تمثيلي ضمني قابل للفصل بشكل كبير، مما يحسن العينات الإيجابية في مرحلة التدريب الأولي ويضيف رؤى ضمنية على مستوى الفئة إلى التعلم المقارن غير المشرف. ثم نعالج المشكلة التي تم تجاهلها نوعاً ما ولكنها حاسمة، وهي تحيز العينة في مرحلة الاستدلال القليل. نقترح استراتيجية تنسيق توزيعية قائمة على النقل الأمثل بطريقة تكرارية (OpTA)، ونثبت أنها تعالج المشكلة بكفاءة، خاصة في السيناريوهات ذات العينات القليلة حيث تعاني طرق FSL من تحيز العينة بشكل أكبر. بعد ذلك، نناقش أن DyCE وOpTA هما قطعتان مرتبطتان ببعضهما البعض في إطار جديد يمتد من البداية إلى النهاية (سماه BECLR)، تعملان على زيادة تأثير كل منهما بشكل بناء. أخيرًا، نقدم مجموعة شاملة من التجارب الكمية والنوعية لتأكيد أن BECLR يحدد حالة فنية جديدة عبر جميع مقاييس U-FSL الحالية (حسب علمنا)، ويتفوق بشكل كبير على أفضل الأساليب الحالية (متوفر الكود المصدر على الرابط: https://github.com/stypoumic/BECLR).