نحو التخلص من الضوضاء في الصور الفوتوغرافية الحقيقية باستخدام التفاف عمياء

بينما حققت الشبكات العصبية التلافيفية العميقة (CNNs) نجاحًا ملحوظًا في إزالة الضوضاء من الصور مع وجود ضوضاء غاوسية بيضاء مضافة (AWGN)، فإن أدائها لا يزال محدودًا على الصور الفوتوغرافية المضطربة في العالم الحقيقي. السبب الرئيسي هو أن النماذج التي تم تعلمها تكون سهلة الانحراف نحو النموذج المبسط لضوضاء AWGN، والذي يختلف بشكل كبير عن النموذج المعقد للضوضاء في العالم الحقيقي. من أجل تحسين قدرة الشبكات العصبية التلافيفية العميقة على التعميم، نقترح تدريب شبكة إزالة الضوضاء التلافيفية العمياء (CBDNet) باستخدام نموذج ضوضاء أكثر واقعية وأزواج صور فوتوغرافية مُضطربة ونظيفة من العالم الحقيقي. من جهة أخرى، يتم الأخذ بعين الاعتبار كل من الضوضاء المرتبطة بالإشارة ومعالجة الإشارة داخل الكاميرا لتكوين صور مضطربة واقعية. ومن جهة أخرى، يتم أيضًا تضمين الصور الفوتوغرافية المُضطربة من العالم الحقيقي ونظيراتها الخالية تقريبًا من الضوضاء لتدريب شبكتنا CBDNet. لتوفير استراتيجية تفاعلية لإصلاح نتيجة إزالة الضوضاء بسهولة، تم دمج شبكة تقدير الضوضاء ذات التعلم غير المتماثل لقمع تقدير مستوى الضوضاء بأقل مما يجب في CBDNet. أظهرت النتائج التجريبية الواسعة على ثلاثة مجموعات بيانات للصور الفوتوغرافية المُضطربة من العالم الحقيقي بشكل واضح الأداء المتفوق لـ CBDNet مقارنة بأحدث التقنيات فيما يتعلق بالمقاييس الكمية والجودة البصرية. تم توفير الكود في https://github.com/GuoShi28/CBDNet.