HyperAIHyperAI
منذ 8 أيام

التعلم القوي للنموذج الموجه بالسابقة العينة لتقليل تأثير التسميات الضوضائية

Wenkai Chen, Chuang Zhu, Yi Chen, Mengting Li, Tiejun Huang
التعلم القوي للنموذج الموجه بالسابقة العينة لتقليل تأثير التسميات الضوضائية
الملخص

العلامات غير المثالية شائعة جدًا في مجموعات البيانات الواقعية، وتكبد أداء النموذج بشكل خطير. وتحتاج عدة طرق فعّالة حديثة للتعامل مع العلامات الخاطئة إلى خطوتين رئيسيتين: 1) تقسيم العينات إلى مجموعتين: عينات مُعلّمة بشكل صحيح وعينات مُعلّمة بشكل خاطئ، وذلك بناءً على قيمة الخسارة الناتجة عن التدريب، 2) استخدام طرق شبه مراقبة لإنشاء علامات افتراضية (Pseudo-labels) للعينات التي تم تصنيفها خطأ. ومع ذلك، فإن الطرق الحالية تؤدي دائمًا إلى تضرر العينات الصعبة المفيدة، نظرًا لتشابه توزيع الخسارة بين هذه العينات الصعبة والعينات الضارة (الخاطئة). في هذه الورقة، نقترح إطارًا جديدًا يُسمى PGDF (إطار التصفية الموجهة بالافتراضات الأولية)، والذي يُمكّن من تعلّم نموذج عميق يُقلل من تأثير الضوضاء من خلال إنشاء معرفة أولية للعينات، ويُدمج هذه المعرفة في كلا الخطوتين: تقسيم العينات ومرحلة التعلم شبه المراقب. يُمكن لهذا الإطار الحفاظ على عدد أكبر من العينات الصعبة المفيدة داخل المجموعة المُعلّمة بشكل صحيح. علاوةً على ذلك، يُحسّن الإطار جودة العلامات الافتراضية أثناء مرحلة التعلم شبه المراقب من خلال تقليل الضوضاء في نموذج إنشاء العلامات الافتراضية الحالي. ولتعزيز العينات الصعبة بشكل أكبر، نُعيد توزين العينات داخل المجموعة المُعلّمة بشكل صحيح أثناء التدريب. تم تقييم أسلوبنا باستخدام مجموعات بيانات مُصطنعة مبنية على CIFAR-10 وCIFAR-100، وكذلك على مجموعات بيانات واقعية مثل WebVision وClothing1M. وأظهرت النتائج تحسينات كبيرة مقارنة بالأساليب الحالية المتميزة في مجالها.

التعلم القوي للنموذج الموجه بالسابقة العينة لتقليل تأثير التسميات الضوضائية | أحدث الأوراق البحثية | HyperAI