توليد المعلومات التحويلية للتعلم القليل الحالة

نُقدِّم طريقة التحسين المُتَحَوِّلِ (Transductive Information Maximization - TIM) للتعلم القليل النماذج (few-shot learning). تعتمد طريقة TIM على تكبير المعلومات التبادلية (mutual information) بين ميزات الاستعلام (query features) وتوقعات التصنيف الخاصة بها في مهمة تعلم قليلة النماذج معينة، وذلك بالتزامن مع خسارة مراقبة تعتمد على مجموعة الدعم (support set). بالإضافة إلى ذلك، نقترح حلّاً جديداً يعتمد على اتجاهات متعددة (alternating-direction solver) للخسارة المتعلقة بالمعلومات التبادلية، والذي يُسرّع بشكل كبير من عملية تقارب الاستنتاج التحويلي مقارنة بالتحسين القائم على التدرج (gradient-based optimization)، مع الحفاظ على دقة مشابهة. يتميز استنتاج TIM بالهيكلية القابلة للتركيب (modular): يمكن استخدامه فوق أي مُستخرِج ميزات أساسي (base-training feature extractor). وباتباع الإعدادات القياسية للتعلم القليل النماذج التحويلي، تُظهر تجاربنا الشاملة أن TIM يتفوق بشكل ملحوظ على أحدث الطرق المُتاحة عبر مجموعة متنوعة من قواعد البيانات والشبكات العصبية، وذلك باستخدام مُستخرِج ميزات ثابت تم تدريبه ببساطة باستخدام خسارة التردد المتقاطع (cross-entropy) على الفئات الأساسية، دون الحاجة إلى استخدام نُظم تعتمد على التعلم الميتا المعقدة. كما يحقق TIM تحسناً مستمراً في الدقة يتراوح بين 2% و5% مقارنة بالطريقة الأفضل أداءً، ليس فقط على جميع المعايير القياسية المعتمدة في التعلم القليل النماذج، بل أيضاً في سيناريوهات أكثر تطلباً، مثل الحالات التي تشهد تغيرات في المجال (domain shifts) وأعداد أكبر من الفئات.