HyperAIHyperAI
منذ 2 أشهر

تحسين تدريب شبكات GAN المائية (Wasserstein GANs)

Ishaan Gulrajani; Faruk Ahmed; Martin Arjovsky; Vincent Dumoulin; Aaron Courville
تحسين تدريب شبكات GAN المائية (Wasserstein GANs)
الملخص

الشبكات العصبية المولدة المتنافسة (GANs) هي نماذج مولدة قوية، ولكنها تعاني من عدم استقرار التدريب. يمثل Wasserstein GAN (WGAN)، الذي تم اقتراحه مؤخرًا، تقدمًا نحو تحقيق تدريب مستقر للـ GANs، ولكنه في بعض الأحيان قد يولد عينات ذات جودة منخفضة أو يفشل في التقارب. نجد أن هذه المشاكل غالبًا ما تكون بسبب استخدام تقليم الأوزان في WGAN لفرض قيد ليبيشيتز على الناقد (critic)، مما يمكن أن يؤدي إلى سلوك غير مرغوب فيه. نقترح بديلًا لتقليم الأوزان: معاقبة معيار تدرج الناقد بالنسبة لمدخلاته. أداء طريقة الاقتراح الخاصة بنا أفضل من WGAN القياسية ويجعل التدريب مستقرًا لطيف واسع من هياكل GAN مع ضبط شبه معدوم للمعلمات الفائقة، بما في ذلك شبكات ResNet ذات 101 طبقة والنموذج اللغوي فوق البيانات المتقطعة. كما حققنا أيضًا إنتاجًا عالي الجودة على CIFAR-10 وغرف النوم في LSUN.

تحسين تدريب شبكات GAN المائية (Wasserstein GANs) | أحدث الأوراق البحثية | HyperAI