HyperAIHyperAI

Command Palette

Search for a command to run...

تحسين تدريب شبكات GAN المائية (Wasserstein GANs)

Ishaan Gulrajani Faruk Ahmed Martin Arjovsky Vincent Dumoulin Aaron Courville

الملخص

الشبكات العصبية المولدة المتنافسة (GANs) هي نماذج مولدة قوية، ولكنها تعاني من عدم استقرار التدريب. يمثل Wasserstein GAN (WGAN)، الذي تم اقتراحه مؤخرًا، تقدمًا نحو تحقيق تدريب مستقر للـ GANs، ولكنه في بعض الأحيان قد يولد عينات ذات جودة منخفضة أو يفشل في التقارب. نجد أن هذه المشاكل غالبًا ما تكون بسبب استخدام تقليم الأوزان في WGAN لفرض قيد ليبيشيتز على الناقد (critic)، مما يمكن أن يؤدي إلى سلوك غير مرغوب فيه. نقترح بديلًا لتقليم الأوزان: معاقبة معيار تدرج الناقد بالنسبة لمدخلاته. أداء طريقة الاقتراح الخاصة بنا أفضل من WGAN القياسية ويجعل التدريب مستقرًا لطيف واسع من هياكل GAN مع ضبط شبه معدوم للمعلمات الفائقة، بما في ذلك شبكات ResNet ذات 101 طبقة والنموذج اللغوي فوق البيانات المتقطعة. كما حققنا أيضًا إنتاجًا عالي الجودة على CIFAR-10 وغرف النوم في LSUN.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp
تحسين تدريب شبكات GAN المائية (Wasserstein GANs) | مستندات | HyperAI