HyperAIHyperAI

Command Palette

Search for a command to run...

نحو فهم أفضل وتنظيم لديناميكيات تدريب GAN

Weili Nie Ankit B. Patel

الملخص

شبكات التوليد المتنافسة (GANs) معروفة بصعوبة تدريبها، والأسباب الكامنة وراء سلوكها في التقارب (أو عدم التقارب) لا تزال غير مفهومة تمامًا. من خلال النظر أولاً إلى مثال بسيط ومعبر عن شبكات GANs، نقوم بتحليل رياضي لسلوك التقارب المحلي لهذه الشبكة بطريقة غير مقاربة. بالإضافة إلى ذلك، تم توسيع التحليل ليشمل شبكات GANs العامة تحت بعض الافتراضات. نجد أن للتأكد من معدل تقارب جيد، يجب تجنب عاملين في جاكوبية ديناميكيات تدريب GANs بشكل متزامن، وهما: (i) عامل الطور (Phase Factor)، أي أن الجاكوبية لديها قيم ذاتية معقدة بنسب تخيلي حقيقي كبيرة، و (ii) عامل التنظيم (Conditioning Factor)، أي أن الجاكوبية تكون سيئة التنظيم. الطرق السابقة لتقييد الجاكوبية يمكنها فقط تخفيف أحد هذين العاملين بينما تجعل الآخر أكثر حدة. لذلك، نقترح تقيديرًا جديدًا للجاكوبية في شبكات GANs يُعرف باسم JAcobian REgularization (JARE)، والذي يعالج كلا العاملين بشكل متزامن من خلال بنائه. أخيرًا، نجري تجارب تؤكد تحليلنا النظري وتظهر مزايا JARE على الطرق السابقة في استقرار شبكات GANs.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp
نحو فهم أفضل وتنظيم لديناميكيات تدريب GAN | مستندات | HyperAI