التنظيم باستخدام التحويلات والاضطرابات العشوائية للتعلم شبه المشرف العميق

الشبكات العصبية التلافيفية الفعالة يتم تدريبها على مجموعات كبيرة من البيانات المصنفة. ومع ذلك، فإن إنشاء مجموعات بيانات كبيرة ومصنفة هو مهمة باهظة الثمن ومستهلكة للوقت. يُستخدم التعلم شبه المشرف (Semi-supervised learning) لتدريب النموذج بدقة أعلى عندما تكون هناك مجموعة محدودة من البيانات المصنفة متاحة. في هذا البحث، نتناول مشكلة التعلم شبه المشرف باستخدام الشبكات العصبية التلافيفية. تقنيات مثل زيادة البيانات بشكل عشوائي (randomized data augmentation)، الإسقاط (dropout) والتوسيط العشوائي للحد الأقصى (random max-pooling) توفر تعميمًا أفضل واستقرارًا للتصنيفات التي يتم تدريبها باستخدام الانحدار التدرجي (gradient descent). قد يؤدي مرور عينة فردية عبر الشبكة عدة مرات إلى تنبؤات مختلفة بسبب السلوك غير الحتمي لهذه التقنيات. نقترح دالة خسارة غير مشرفة تستفيد من الطبيعة العشوائية لهذه الطرق وتقلل الفرق بين تنبؤات مرور عينة التدريب عبر الشبكة عدة مرات. قمنا بتقييم الطريقة المقترحة على عدة مجموعات بيانات معيارية.