HyperAIHyperAI
منذ 8 أيام

Knockoffs-SPR: اختيار العينات النظيفة في التعلم مع التسميات الضوضائية

Yikai Wang, Yanwei Fu, Xinwei Sun
Knockoffs-SPR: اختيار العينات النظيفة في التعلم مع التسميات الضوضائية
الملخص

عادةً ما يؤدي مجموعة تدريب ضوضائية إلى تدهور في التعميم والثبات الشبكي للشبكات العصبية. في هذا البحث، نقترح إطارًا جديدًا لاختيار العينات النظيفة مدعومًا نظريًا لتعلم العلامات الضوضائية. بشكل محدد، نقدم أولًا طريقة التراجع المُنَقَّحَة القابلة للتوسع (SPR)، التي تُمَثِّل العلاقة الخطية بين ميزات الشبكة والعلامات ذات الحالة الواحدة (one-hot). في إطار SPR، يتم تحديد البيانات النظيفة من خلال معاملات الانزلاق الصفرية التي يتم حلها في نموذج الانحدار. ونُظهر نظريًا أن SPR قادرة على استرداد البيانات النظيفة تحت بعض الشروط. ومع ذلك، في السيناريوهات العامة، قد لا تُحقَّق هذه الشروط بعد الآن؛ وبالتالي قد تُختار بعض البيانات الضوضائية بشكل خاطئ كبيانات نظيفة. لحل هذه المشكلة، نقترح طريقة مُتَعَدِّلة حسب البيانات للانحدار المُنَقَّحَة القابلة للتوسع باستخدام تقنيات "الكُنْكُوف" (Knockoffs-SPR)، والتي يمكن إثبات أنها تتحكم في معدل الاختيار الخاطئ (False-Selection-Rate - FSR) في البيانات النظيفة المختارة. ولتحسين الكفاءة، نقدِّم أيضًا خوارزمية مقسّمة تقوم بتقسيم مجموعة التدريب الكاملة إلى أجزاء صغيرة يمكن حلها بالتوازي، مما يجعل الإطار قابلاً للتوسع أمام مجموعات بيانات كبيرة. في حين يمكن اعتبار Knockoffs-SPR وحدة اختيار عينات ضمن مسار تدريب مراقب قياسي، فإننا نُكَمِّلها أيضًا مع خوارزمية شبه مراقبة للاستفادة من دعم البيانات الضوضائية كبيانات غير مُعلَّمة. أظهرت النتائج التجريبية على عدة مجموعات بيانات معيارية وبيانات ضوضائية واقعية فعالية إطارنا وتحقق النتائج النظرية الخاصة بـ Knockoffs-SPR. يمكن الوصول إلى الكود المُعدّ ونماذج التدريب المُسبقة من خلال الرابط التالي: https://github.com/Yikai-Wang/Knockoffs-SPR.

Knockoffs-SPR: اختيار العينات النظيفة في التعلم مع التسميات الضوضائية | أحدث الأوراق البحثية | HyperAI