HyperAIHyperAI
منذ 17 أيام

PaGoDA: النمو التدريجي لمحول خطي واحد من معلم توزيع منخفض الدقة

Dongjun Kim, Chieh-Hsin Lai, Wei-Hsiang Liao, Yuhta Takida, Naoki Murata, Toshimitsu Uesaka, Yuki Mitsufuji, Stefano Ermon
PaGoDA: النمو التدريجي لمحول خطي واحد من معلم توزيع منخفض الدقة
الملخص

تنفذ نموذج الانتشار أداءً متميزًا في إنشاء محتوى عالي الأبعاد، لكنه مكثف من حيث الحساب، خاصة أثناء التدريب. نقترح Pipeline جديدًا يُسمى "نمو متدرّج لنموذج التشفير التلقائي للانتشار" (PaGoDA)، والذي يقلل من تكاليف التدريب عبر ثلاث مراحل: تدريب نموذج الانتشار على بيانات مُخفّضة التردد، واستخلاص النموذج المُدرّب مسبقًا للانتشار، ثم التحسين التدريجي للدقة. وباستخدام هذا النموذج، يحقق PaGoDA خفضًا بنسبة 64 مرة في تكاليف تدريب نموذج الانتشار على بيانات مُخفّضة بعامل 8؛ وبالنسبة للعملية الاستنتاجية، وباستخدام خطوة واحدة، يُظهر أداءً متميزًا على مستوى الحالة الراهنة (SOTA) على مجموعة بيانات ImageNet عبر جميع الد resolutions من 64×64 إلى 512×512، بالإضافة إلى المهام المتعلقة بتحويل النص إلى صورة. يمكن تطبيق نموذج PaGoDA مباشرة في الفضاء الخفي، مع إضافة ضغط إضافي إلى النموذج التلقائي المُدرّب مسبقًا في نماذج الانتشار الخفي (مثل Stable Diffusion). يمكن الاطلاع على الكود عبر الرابط: https://github.com/sony/pagoda.