التصنيف المتكرر للتعلم غير المشرف

إن مهمة تسمية البيانات لتدريب الشبكات العصبية العميقة مرهقة ومملة، حيث تتطلب ملايين التسميات لتحقيق النتائج الرائدة حاليًا. يمكن تخفيف الاعتماد على كميات كبيرة من البيانات المسمّاة من خلال استغلال الخصائص الهرمية عبر تقنيات التعلم غير المشرف (الغير مراقب). في هذا البحث، نقترح تدريب شبكة عصبية عميقة انتقالية بناءً على إصدار محسّن من خوارزمية التجميع k-means، والتي تقلل من عدد المعلمات المرتبطة في شكل مرشحات متشابهة، مما يزيد من دقة تصنيف الاختبار. نطلق على خوارزميتنا اسم التجميع k-means الانتقالي (Convolutional k-means Clustering). نوضح أيضًا أن تعلم العلاقة بين طبقات الشبكة العصبية العميقة الانتقالية يحسن قدرتها على التدريب باستخدام كمية أصغر من البيانات المسمّاة. أظهرت تجاربنا أن الخوارزمية المقترحة تتفوق على التقنيات الأخرى التي تتعلم المرشحات بشكل غير مشرف (غير مراقب). تحديدًا، حققنا دقة اختبار بلغت 74.1% على مجموعة بيانات STL-10 وخطأ اختبار بلغ 0.5% على مجموعة بيانات MNIST.