HyperAIHyperAI

Command Palette

Search for a command to run...

تعلم تمثيل مرن للتكيف بين المجالات دون إشراف

Guanyu Cai Lianghua He Mengchu Zhou Fellow, IEEE Hesham Alhumade Die Hu

الملخص

تُعَدُّ طُرُق التكيف بين المجالات بدون إشراف القائمة على التدريب المعاكس (adversarial training) عرضةً للخطر عندما تكون مجموعات البيانات المصدر والهدف معقدةً للغاية أو تظهر فروقات كبيرة في توزيعاتها. مؤخرًا، تم استكشاف عدة طُرُق قائمة على القيود ليبشيتزية (Lipschitz-constraint). يضمن تحقيق الاستمرارية الليبشيتزية أداءً ملحوظًا في المجال الهدف. ومع ذلك، فإن هذه الطرق تفتقر إلى تحليل رياضي يوضح سبب فائدة القيود الليبشيتزية للتكييف بين المجالات بدون إشراف، وغالبًا ما تؤدي أداءً ضعيفًا على مجموعات بيانات كبيرة الحجم.في هذا البحث، نوسع من مبدأ استخدام القيود الليبشيتزية من خلال مناقشة كيفية تأثيرها على حد الخطأ للتكييف بين المجالات بدون إشراف. يتم بناء علاقة بينهما ويتم تقديم شرح لكيفية خفض حد الخطأ بواسطة الاستمرارية الليبشيتزية. يتم تعريف الاختلاف الناعم المحلي لقياس استمرارية ليبيشتز للموزع الهدف بطريقة نقطة بنقطة. عند بناء نموذج عميق من النهاية إلى النهاية، لضمان فعالية واستقرار التكيف بين المجالات بدون إشراف، يتم النظر في ثلاثة عناصر أساسية في استراتيجيتنا المقترحة للتحسين، وهي: عدد العينات في المجال الهدف، البعد وحجم الدفعة (batch size) للعينات.تظهر نتائج التجارب أن نموذجنا يؤدي بشكل جيد على عدة مقاييس قياسية. يبين دراسة الإلغاء لدينا أن عدد العينات في المجال الهدف، البعد وحجم الدفعة للعينات يؤثرون بالفعل بشكل كبير على قدرة طُرُق القيود الليبشيتزية على التعامل مع مجموعات بيانات كبيرة الحجم. يمكن الحصول على الكود من https://github.com/CuthbertCai/SRDA.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp