Dist-GAN: تحسين GAN باستخدام قيود المسافة

نقدم خوارزميات تدريب فعالة للشبكات المولدة المعادية (GAN) لتخفيض مشكلة الانهيار النمطي وتلاشي التدرج. في نظامنا، نقيّد المولد بوساطة مُشفِّر ذاتي (Autoencoder - AE). نقترح صيغة تأخذ العينات المُعاد بناؤها من AE كعينات "حقيقية" للمميز. هذا يربط التقارب بين AE والمميز، مما يؤدي إلى إبطاء تقارب المميز وتخفيض تلاشي التدرج بشكل فعال. وبشكل مهم، نقترح قيودين مسافتين جديدتين لتحسين المولد. أولاً، نقترح قيد المسافة بين البيانات الكامنة والبيانات الأصلية لفرض توافق بين مسافات العينات الكامنة ومسافات العينات المرتبطة بالبيانات. نستخدم هذا القيد لمنع المولد من الانهيار النمطي بشكل صريح. ثانياً، نقترح قيد مسافة درجات المميز لتوفيق توزيع العينات المولدة مع توزيع العينات الحقيقية عبر درجة المميز. نستخدم هذا القيد لإرشاد المولد إلى إنتاج عينات تشبه العينات الحقيقية. يمكن أن يحقق GAN المقترح لدينا باستخدام هذه القيود المسافتين، والذي يُطلق عليه Dist-GAN، نتائج أفضل من الأساليب الرائدة في مجال البحث على مجموعة متنوعة من مجموعات البيانات القياسية: بيانات اصطناعية، MNIST، MNIST-1K، CelebA، CIFAR-10 و STL-10. تم نشر شفرتنا المصدر هنا (https://github.com/tntrung/gan) للأغراض البحثية.