EnAET: إطار ذاتي التدريب للتعلم شبه المراقب والتعلم المراقب باستخدام تحولات مجمعة

تم تطبيق الشبكات العصبية العميقة بنجاح في العديد من التطبيقات الواقعية. ومع ذلك، تعتمد هذه النجاحات بشكل كبير على كميات كبيرة من البيانات المُصنفة، والتي يصعب الحصول عليها بسهولة. في الآونة الأخيرة، تم اقتراح العديد من الطرق الخاصة بالتعلم شبه المُراقب، وقد حققت أداءً متميزًا. في هذه الدراسة، نقترح إطار عمل جديد يُسمى EnAET لتحسين الطرق الحالية للتعلم شبه المُراقب من خلال الاستفادة من معلومات التعلم الذاتي. إلى حد معرفتنا، تعتمد جميع الطرق الحالية للتعلم شبه المُراقب على أفكار اتساق التنبؤ وثقة النموذج. ونحن أول من يستكشف دور التمثيلات الذاتية في التعلم شبه المُراقب ضمن عائلة غنية من التحولات. وبذلك، يمكن ل إطارنا دمج المعلومات الذاتية كحدّ منظم (regularization term) لتحسين جميع الطرق الحالية للتعلم شبه المُراقب. في التجارب، استخدمنا MixMatch، وهي الطريقة الحالية الأفضل أداءً في التعلم شبه المُراقب، كأساس مرجعي لاختبار إطار EnAET المقترح. وعبر مختلف المجموعات البيانات، استخدمنا نفس القيم المعلمة (hyper-parameters)، مما عزز بشكل كبير قدرة إطار EnAET على التعميم. أظهرت نتائج التجارب على مجموعات بيانات مختلفة أن إطار EnAET المُقترح يُحسّن بشكل كبير أداء الخوارزميات الحالية للتعلم شبه المُراقب. علاوة على ذلك، يمكن لهذا الإطار أيضًا تحسين التعلم المُراقب بشكل كبير، بما في ذلك السيناريوهات الصعبة للغاية التي تضم فقط 10 صور لكل فئة. يُمكن الوصول إلى الكود وسجلات التجارب من خلال الرابط التالي: \url{https://github.com/maple-research-lab/EnAET}.