HyperAIHyperAI
منذ شهر واحد

تعلم تمثيل مرن للتكيف بين المجالات دون إشراف

Guanyu Cai; Lianghua He; Mengchu Zhou; Hesham Alhumade; Die Hu
تعلم تمثيل مرن للتكيف بين المجالات دون إشراف
الملخص

تُعَدُّ طُرُق التكيف بين المجالات بدون إشراف القائمة على التدريب المعاكس (adversarial training) عرضةً للخطر عندما تكون مجموعات البيانات المصدر والهدف معقدةً للغاية أو تظهر فروقات كبيرة في توزيعاتها. مؤخرًا، تم استكشاف عدة طُرُق قائمة على القيود ليبشيتزية (Lipschitz-constraint). يضمن تحقيق الاستمرارية الليبشيتزية أداءً ملحوظًا في المجال الهدف. ومع ذلك، فإن هذه الطرق تفتقر إلى تحليل رياضي يوضح سبب فائدة القيود الليبشيتزية للتكييف بين المجالات بدون إشراف، وغالبًا ما تؤدي أداءً ضعيفًا على مجموعات بيانات كبيرة الحجم.في هذا البحث، نوسع من مبدأ استخدام القيود الليبشيتزية من خلال مناقشة كيفية تأثيرها على حد الخطأ للتكييف بين المجالات بدون إشراف. يتم بناء علاقة بينهما ويتم تقديم شرح لكيفية خفض حد الخطأ بواسطة الاستمرارية الليبشيتزية. يتم تعريف الاختلاف الناعم المحلي لقياس استمرارية ليبيشتز للموزع الهدف بطريقة نقطة بنقطة. عند بناء نموذج عميق من النهاية إلى النهاية، لضمان فعالية واستقرار التكيف بين المجالات بدون إشراف، يتم النظر في ثلاثة عناصر أساسية في استراتيجيتنا المقترحة للتحسين، وهي: عدد العينات في المجال الهدف، البعد وحجم الدفعة (batch size) للعينات.تظهر نتائج التجارب أن نموذجنا يؤدي بشكل جيد على عدة مقاييس قياسية. يبين دراسة الإلغاء لدينا أن عدد العينات في المجال الهدف، البعد وحجم الدفعة للعينات يؤثرون بالفعل بشكل كبير على قدرة طُرُق القيود الليبشيتزية على التعامل مع مجموعات بيانات كبيرة الحجم. يمكن الحصول على الكود من https://github.com/CuthbertCai/SRDA.