الاستخلاص المعرفي الذاتي التدريب لتعلم القليل

يحتوي العالم الحقيقي على عدد هائل جدًا من فئات الكائنات، وتعلم جميعها في آن واحد أمر غير ممكن. تُعدّ التعلم القائم على عدد قليل من الأمثلة (Few-shot learning) نموذجًا واعدًا بفضل قدرته على التعلم بسرعة من توزيعات غير منظمة باستخدام عدد قليل جدًا من الأمثلة. أظهرت الدراسات الحديثة [7, 41] أن تعلم تمثيل ميزة جيد بشكل بسيط يمكن أن يتفوق على خوارزميات التعلم التكراري (meta-learning) والتعلم القائم على المقاييس (metric learning) الأكثر تعقيدًا في مهام التعلم القائم على عدد قليل من الأمثلة. في هذه الورقة، نقترح منهجًا بسيطًا لتحسين قدرة التمثيل في الشبكات العصبية العميقة في مهام التعلم القائم على عدد قليل من الأمثلة. نتبع عملية تعلم مكونة من مرحلتين: أولاً، نُدرّب شبكة عصبية لزيادة الانتروبيا في تمثيل الميزات، مما يؤدي إلى إنشاء منحنى ناتج مثالي باستخدام خسارة مساعدة ذاتية التدريب (self-supervised auxiliary loss). في المرحلة الثانية، نقلل من الانتروبيا في تمثيل الميزات من خلال دمج أزواج من الشبكات ذاتية التدريب معًا، مع الحفاظ على هيكل المنحنى باستخدام تقنية تدريب الطالب-المعلم (student-teacher distillation). تُظهر تجاربنا أن حتى في المرحلة الأولى، يمكن للتدريب الذاتي التفوق على أحدث الطرق المتطورة، مع تحقيق مكاسب إضافية من خلال عملية التدريب في المرحلة الثانية. يمكن الوصول إلى الكود الخاص بنا عبر الرابط التالي: https://github.com/brjathu/SKD.