نظر أدق في السلسّة في التدريب المضاد للنطاق

تم استخدام التدريب المُضاد للنطاق بشكل واسع لتحقيق تمثيلات ثابتة، ويُطبَّق على نطاق واسع في مهام التكيف بين النطاقات المختلفة. في الآونة الأخيرة، أظهرت الطرق التي تتجه نحو حلول ناعمة (Smooth Optima) تحسينًا في التعميم في مهام التعلم المراقب مثل التصنيف. في هذا العمل، نحلل تأثير الصيغ التي تعزز النعومة (Smoothness) على التدريب المُضاد للنطاق، والذي يهدف إلى دمج خسارة المهمة (مثل التصنيف أو الانحدار، إلخ) مع حدود مضادة. نجد أن الاقتراب نحو حد أدنى ناعم بالنسبة إلى خسارة المهمة يُثبّت عملية التدريب المُضاد للنطاق، مما يؤدي إلى أداء أفضل في النطاق المستهدف. وعلى العكس من ذلك، تُظهر تحليلاتنا أن الاقتراب نحو حد أدنى ناعم بالنسبة إلى خسارة المُضادة يؤدي إلى تعميم غير مثالي في النطاق المستهدف. استنادًا إلى هذا التحليل، نُقدّم إجراءً جديدًا يُسمى التدريب المُضاد للنطاق الناعم (SDAT)، الذي يعزز بشكل فعّال أداء الطرق المُضادة للنطاق الحالية في مهام التصنيف والكشف عن الكائنات. كما يوفر تحليلنا رؤى مهمة حول السبب الذي يدفع المجتمع العلمي إلى استخدام خوارزمية SGD بشكل واسع نسبيًا على عكس Adam في مهام التدريب المُضاد للنطاق.