لا تُصْلِحُ عَدْوَتَانِ خَطَأً: مُكافَحَةُ التَّحَيُّزِ التَّأكِيدِيِّ فِي التَّعْلُّمِ بِضَوْءِ الضَّرْبِ الْمُشْتَبِهِ فِي التَّصْنِيفِ

تُضرّ الأوساط المُشوَّشة بأداء الشبكات العميقة. ولتحقيق تعلّم موثوق، يعتمد نموذج مُبتكر ثنائي المراحل على التبديل بين التخلّص من العلامات الخاطئة المحتملة والتدريب شبه المُراقب. ومع ذلك، قد يؤدي التخلّص من جزء من العلامات المُشوَّشة إلى فقدان معلومات مهمة، خصوصًا عندما يكون التلوث مرتبطًا بالبيانات، مثل التلوث المُعتمد على الفئة أو المُعتمد على المُدخلات. علاوةً على ذلك، من خلال تحليل ديناميكية التدريب في طريقة ممثلة ثنائية المراحل تُدعى DivideMix، تم تحديد تأثير "تحيّز التأكيد": حيث تفشل العلامات الوهمية في تصحيح نسبة كبيرة من العلامات الخاطئة، مما يؤدي إلى تراكم الأخطاء. وللاستفادة الكاملة من المعلومات المتوفرة في العلامات المُشوَّشة وتقليل التصحيحات الخاطئة، نُقدّم طريقة هجينة جديدة تُسمّى "إعادة تهيئة العلامات المُقاومة" (Robust Label Refurbishment، أو Robust LR)، والتي تدمج تقنيات التسمية الوهمية وتقدير الثقة لإعادة تهيئة العلامات المُشوَّشة. ونُظهر أن طريقةً جديدة نُقدّمها تُخفّف بنجاح من الأضرار الناتجة عن العلامات المُشوَّشة وتحيّز التأكيد. وبذلك، تحقق أداءً يُعدّ الأفضل على مستوى الحالات الحالية عبر مجموعة متنوعة من المجموعات البيانات وأنواع الضوضاء، بما في ذلك بيانات CIFAR تحت مستويات مختلفة من الضوضاء الصناعية، بالإضافة إلى مجموعتي بيانات Mini-WebVision و ANIMAL-10N اللتين تحتويان على ضوضاء واقعية.