تدريب فئّات تكون مقاومة عالميًا لجميع مستويات الضوضاء في التسميات

بالنسبة للمهام الفئوية، يميل الشبكات العصبية العميقة إلى التأقلم الزائد (overfitting) في ظل وجود ضوضاء في التسميات. وعلى الرغم من أن الطرق الحالية قادرة على تخفيف هذه المشكلة عند مستويات منخفضة من الضوضاء، إلا أنها تواجه تراجعًا كبيرًا في الأداء عند مستويات عالية من الضوضاء، أو حتى عند مستويات متوسطة عندما تكون ضوضاء التسميات غير متماثلة. ولتدريب تصنيفات تكون قادرة على التحمل ضد جميع مستويات الضوضاء، ولا تكون حساسة لأي تغير في نموذج الضوضاء، نقترح إطارًا يعتمد على التحويل (distillation) ويضم فئة فرعية جديدة من التعلم الإيجابي-غير المُعدَّل (Positive-Unlabeled learning). وبشكل خاص، سنفترض أن مجموعة صغيرة من أي مجموعة بيانات مُشوشة معروفة بوجود تسميات صحيحة، ونعتبرها "موجبة" (positive)، بينما يتم اعتبار الجزء المتبقي من البيانات المشوشة على أنه "غير مُعدَّل" (unlabeled). يتكوّن إطارنا من المكونين التاليين: (1) نُولِّد، من خلال تحديثات تكرارية، مجموعة نظيفة مُوسَّعة تحتوي على عينات إضافية موثوقة من الفئة "الموجبة"، تُستخلص من العينات "غير المُعدَّلة"، و(2) نُدرّب نموذجًا مُدرِّسًا (teacher model) على هذه المجموعة النظيفة الموسعة الأكبر. وبتوجيه من نموذج المُدرِّس، نُدرّب بعد ذلك نموذجًا تلميذًا (student model) على كامل مجموعة البيانات. أُجريت تجارب على مجموعة بيانات CIFAR-10 باستخدام ضوضاء تسميات مُصطنعة على عدة مستويات من الضوضاء، سواء في الحالات المتماثلة أو غير المتماثلة. أظهرت النتائج أن إطارنا يتفوّق بشكل عام على المستويات المتوسطة إلى العالية من الضوضاء. كما قُمنا بتقييم إطارنا على مجموعة بيانات حقيقية مشوشة تُسمى Clothing1M، وحققنا تحسنًا بنسبة 2.94% في الدقة مقارنةً بأفضل الطرق الحالية.