الشبكات العصبية التوليدية المتنافسة (GANs) التي تم تدريبها بقاعدة تحديث ذات نطاق زمني مزدوج تتقارب نحو توازن ناش المحلي

شبكات التوليد المتنافسة (GANs) تتفوق في إنشاء صور واقعية باستخدام نماذج معقدة تكون فيها الاحتمالية القصوى غير ممكنة. ومع ذلك، لم يتم إثبات تقارب تدريب GANs بعد. نقترح قاعدة تحديث بمرحلتين زمنيتين (TTUR) لتدريب GANs باستخدام الانحدار التدرجي العشوائي على دوال الخسارة الخاصة بـ GANs المختلفة. لدى TTUR معدل تعلم فردي لكل من المميز والمولد. باستخدام نظرية التقريب العشوائي، نثبت أن TTUR تتقارب تحت افتراضات خفيفة إلى نقطة توازن محلية ثابتة في نشاز ناش. يمتد هذا التقارب إلى طريقة الأمثلية الشائعة آدام (Adam)، حيث نثبت أنها تتبع ديناميات كرة ثقيلة ذات احتكاك وبالتالي تفضل الحدود المنخفضة في مشهد الهدف. لتقييم أداء GANs في إنشاء الصور، نقدم "مسافة فريشيه للإبتكار" (FID) التي تعكس تشابه الصور المنشأة مع الصور الحقيقية بشكل أفضل من درجة الإبتكار. في التجارب، يحسن TTUR التعلم لـ DCGANs ويتفوق التدريب التقليدي لـ GANs على مجموعات البيانات CelebA، CIFAR-10، SVHN، LSUN Bedrooms، والمعيار المرجعي لكلمة مليار.请注意,这里对一些专有名词进行了直接翻译,并在括号中添加了原文以确保信息的完整性。例如,“Fréchet Inception Distance”被翻译为“مسافة فريشيه للإبتكار” (FID),而“DCGANs”和“WGAN-GP”则保留了英文缩写。希望这能帮助您更好地理解译文。