التعلم من التسميات الضوضائية باستخدام معالج التسمية المتعددة المفككة

تدريب الشبكات العصبية العميقة (DNN) باستخدام تسميات ضوضائية يُعد تحديًا كبيرًا، نظرًا لأن الشبكات العصبية العميقة يمكنها بسهولة حفظ التسميات غير الدقيقة، مما يؤدي إلى ضعف القدرة على التعميم. في الآونة الأخيرة، تم اعتماد استراتيجية تصحيح التسميات القائمة على التعلم المتعدد (meta-learning) على نطاق واسع لمعالجة هذه المشكلة من خلال تحديد وتصحيح التسميات الضوضائية المحتملة باستخدام مجموعة صغيرة من بيانات التحقق النظيفة. وعلى الرغم من أن التدريب باستخدام تسميات نظيفة يُحسّن الأداء بشكل فعّال، إلا أن حل مشكلة التعلم المتعدد يتطلب بالضرورة حلًا متداخلًا من التحسين ثنائي المستويات بين أوزان النموذج والمعالم (أي توزيع التسميات). كحل وسط، اعتمدت الطرق السابقة عملية تعلم مترابطة تتضمن تحديثًا متتاليًا. في هذه الورقة، نلاحظ تجريبيًا أن هذا التحسين المتزامن لأوزان النموذج وتوزيع التسميات لا يمكنه تحقيق نمط مثالي، مما يحد من قدرة النموذج الأساسي على تمثيل البيانات ودقة التسميات المُصححة. استنادًا إلى هذه الملاحظة، نقترح مُنظفًا جديدًا للتسميات يُسمى DMLP (Denoising Multi-stage Label Purifier). يُفكك DMLP عملية تصحيح التسميات إلى مرحلتين متميزتين: تعلم التمثيل دون تسميات، ومنظف تسميات متعدد بسيط. وبهذا، يمكن لـ DMLP التركيز على استخلاص ميزات تمييزية وتصحيح التسميات في مرحلتين منفصلتين. يُعد DMLP منظف تسميات جاهزًا للتركيب (plug-and-play)، ويمكن إعادة استخدام التسميات المُنظفة مباشرة في إعادة تدريب الشبكة النهائية دون تعقيدات، أو في طرق أخرى للتعلم المقاوم، حيث تم تحقيق نتائج من الدرجة الأولى على عدة مجموعات بيانات ضوضائية صناعية وواقعية، وخاصةً في ظل مستويات ضوضاء عالية.