HyperAIHyperAI
منذ 17 أيام

التعزيز القابل للتفاضل لتدريب GAN بكفاءة عالية في استخدام البيانات

Shengyu Zhao, Zhijian Liu, Ji Lin, Jun-Yan Zhu, Song Han
التعزيز القابل للتفاضل لتدريب GAN بكفاءة عالية في استخدام البيانات
الملخص

تتأثر أداء الشبكات التوليدية التنافسية (GANs) سلبًا بشكل كبير عند توفر كمية محدودة من بيانات التدريب. ويعود السبب الرئيسي في ذلك إلى أن المُميّز (discriminator) يُخزّن مجموعة التدريب بالضبط. وللتصدي لهذا التحدي، نقترح طريقة تُسمى التحويل القابل للتفاضل (DiffAugment)، وهي طريقة بسيطة تُحسّن كفاءة استخدام البيانات في GANs من خلال تطبيق أنواع مختلفة من التحويلات القابلة للتفاضل على العينات الحقيقية والمحسّنة (الوهمية). أما المحاولات السابقة التي حاولت تعديل بيانات التدريب مباشرة، فقد أثرت على توزيع الصور الحقيقية، مما أدى إلى فوائد ضئيلة؛ أما DiffAugment، فهي تتيح لنا تطبيق التحويل القابل للتفاضل على العينات المولّدة، مما يُثبّت عملية التدريب بشكل فعّال ويُحسّن التقارب. وتبين النتائج التجريبية تحسينًا مستمرًا لطريقتنا عبر مجموعة متنوعة من هياكل GANs ووظائف الخسارة، سواء في التوليد غير المشروط أو المشروط بالفئة. وباستخدام DiffAugment، نحقق أفضل أداء مُسجّل حتى الآن على ImageNet بحجم 128×128، حيث نصل إلى FID قدره 6.80 وIS قدره 100.8، كما نحقق تخفيضًا بنسبة 2 إلى 4 أضعاف في FID عند استخدام 1000 صورة فقط على مجموعتي بيانات FFHQ وLSUN. علاوةً على ذلك، وباستخدام فقط 20% من بيانات التدريب، نتمكن من مطابقة الأداء الأعلى على CIFAR-10 وCIFAR-100. وأخيرًا، يمكن لطريقتنا إنتاج صور عالية الدقة باستخدام 100 صورة فقط دون الحاجة إلى التدريب المسبق، مع تحقيق أداءً مُنافسًا للخوارزميات الحالية للتعلم المنقول (transfer learning). يُمكن الوصول إلى الكود عبر الرابط: https://github.com/mit-han-lab/data-efficient-gans.

التعزيز القابل للتفاضل لتدريب GAN بكفاءة عالية في استخدام البيانات | أحدث الأوراق البحثية | HyperAI