HyperAIHyperAI

Command Palette

Search for a command to run...

شبكات إزالة المطر التدريجية من الصور: أساس أفضل وأبسط

Dongwei Ren; Wangmeng Zuo; Qinghua Hu; Pengfei Zhu; Deyu Meng

الملخص

بالتزام مع تحسين أداء الشبكات العميقة في إزالة المطر، أصبحت هياكلها وعملية التعلم أكثر تعقيدًا ومتنوعة، مما يجعل من الصعب تحليل مساهمة الوحدات المختلفة للشبكة عند تطوير شبكات جديدة لإزالة المطر. لمعالجة هذه المشكلة، يقدم هذا البحث نموذجًا أساسيًا أفضل وأبسط لإزالة المطر من خلال مراعاة هيكليات الشبكات والمدخلات والمخرجات ودوال الخسارة. تحديدًا، تم اقتراح شبكة ResNet التدريجية (PRN) عن طريق فك طيات شبكة ResNet الضحلة بشكل متكرر للاستفادة من الحساب المتكرر. كما تم تقديم طبقة متكررة لاستغلال الارتباطات بين الخصائص العميقة عبر المراحل، مما يشكل شبكتنا التدريجية المتكررة (PReNet). بالإضافة إلى ذلك، يمكن تبني الحساب المتكرر داخل المرحلة لشبكة ResNet في PRN و PReNet لتقليل عدد معلمات الشبكة بشكل كبير مع انخفاض بسيط في أداء إزالة المطر. فيما يتعلق بالمدخلات والمخرجات للشبكة، نأخذ كلًّا من النتيجة المرحلية والصورة الممطرة الأصلية كمدخل لكل شبكة ResNet ونقوم في النهاية بإخراج تنبؤ {بالصورة الباقية}. بالنسبة لدوال الخسارة، تكون خسارة MSE أو SSIM السالبة بمفردها كافية لتدريب PRN و PReNet. تظهر التجارب أن PRN و PReNet يؤديان بشكل جيد على الصور الممطرة الصناعية والحقيقية على حد سواء. بالنظر إلى بساطتها وكفاءتها وفعاليتها، يتوقع أن تكون نماذجنا مناسبة كنموذج أساسي في الأبحاث المستقبلية لإزالة المطر. يمكن الحصول على الكود المصدر من https://github.com/csdwren/PReNet.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp