التقسيم الدقيق مع التسميات الضوضائية

يهدف التعلم مع التسميات الضوضائية (LNL) إلى ضمان تعميم النموذج في ظل مجموعة تدريب مُلوثة بالتسميات. في هذه الدراسة، نستعرض سيناريوًا نادرًا الدراسة من LNL على مجموعات بيانات دقيقة (LNL-FG)، والذي يُعد أكثر واقعية وتحديًا، إذ تؤدي التشابهات الكبيرة بين الفئات الدقيقة إلى زيادة التسميات الضوضائية. نُظهر تجريبيًا أن الطرق الحالية التي تُظهر أداءً جيدًا في LNL لا تحقق أداءً مرضيًا في سياق LNL-FG، مما يبرز الحاجة العملية إلى حلول فعّالة لـ LNL-FG. وللتصدي لهذا التحدي، نقترح إطارًا جديدًا يُسمى التعلم المُقاوم للضوضاء المُحَفَّز بالتمييز التنازلي العشوائي (SNSCL)، الذي يُعالج التسميات الضوضائية من خلال تشجيع تمثيلات مميزة. وبشكل محدد، نصمم دالة خسارة مُقاومة للضوضاء في التعلم التنازلي المُحَفَّز، تُدمج آلية مُعتمدة على الوزن لتصحيح التسميات الضوضائية، وتحديثًا انتقائيًا لقوائم الطابور التراكمي (momentum queue). وباستخدام هذه الآلية، نُخفف من تأثير العناصر المرجعية الضوضائية، ونمنع إدخال التسميات الضوضائية إلى قائمة الطابور التي تُحدَّث تراكميًا. علاوةً على ذلك، لتجنب استراتيجيات التحويل اليدوية في التعلم التنازلي، نقترح وحدة عشوائية فعّالة تُستخرج تمثيلات الميزات من توزيع مُولَّد، مما يُعزز أيضًا قدرة النماذج العميقة على التمثيل. ويتميز SNSCL بأنه عام وقابِل للتكامل مع الاستراتيجيات الشائعة لمقاومة الضوضاء في LNL، مما يُحسّن أداؤها في سياق LNL-FG. وتوحي النتائج التجريبية الواسعة بفعالية SNSCL.