HyperAIHyperAI
منذ 8 أيام

فهم التمويه العام للوسوم عند التعلم مع الوسوم الضوضائية

{Yang Liu, Gang Niu, Tongliang Liu, Hangyu Liu, Jiaheng Wei}
فهم التمويه العام للوسوم عند التعلم مع الوسوم الضوضائية
الملخص

يُعدّ التسوية التسمية (LS) نموذجًا تعلّميًا مُتزايدًا الشّعبية، والذي يستخدم المتوسط المرجّح موجبًا بين التسميات التدريبية الصلبة والسمات اللينة الموزعة بشكل موحد. وقد أُظهر أن LS يعمل كعامل تنظيم (Regularizer) للبيانات التدريبية ذات التسميات الصلبة، وبالتالي يحسّن تعميم النموذج. وفي وقت لاحق، أُبلغ أن LS يُسهم حتى في تحسين المقاومة (الصلابة) عند التعلّم باستخدام تسميات مُشوّشة. ومع ذلك، لاحظنا أن ميزة LS تنعدم عند العمل في بيئة تشويش تسمية عالية. مُحيرين من هذه الملاحظة، قمنا باستقصاء ما إذا كانت بعض الحلول المُقترحة في الأدبيات المتعلقة بالتعلّم مع تسميات مُشوّشة ترتبط بشكل أوثق بـ"تسوية التسمية السلبية" (NLS)، والتي تُعرّف بأنها استخدام وزن سالب لدمج التسميات الصلبة والسمات اللينة! نُظهر أن NLS تختلف بشكل كبير عن LS من حيث مستوى ثقة النموذج المُحققة. ولتمييز الحالتين، سنُطلق على LS اسم "تسوية التسمية الموجبة" (PLS)، وسنُوحّد في هذه الورقة PLS وNLS ضمن مفهوم يُسمّى "تسوية التسمية العامة" (GLS). ونقدّم فهمًا للخصائص التي تتمتع بها GLS عند التعلّم مع تسميات مُشوّشة. وبينما تشمل الخصائص المُثبتة الأخرى، نُظهر نظريًا أن NLS تكون أكثر فائدة عندما تكون معدلات تشويش التسميات مرتفعة. كما نقدّم نتائج تجريبية واسعة على عدة معايير داعمة لنتائجنا.

فهم التمويه العام للوسوم عند التعلم مع الوسوم الضوضائية | أحدث الأوراق البحثية | HyperAI