تحسين متقطع من الطرف إلى الطرف لاسترجاع مُضاعف أعمى

تُفكّك الطرق السابقة مشكلة التكبير الأعمى (SR) إلى خطوتين متتاليتين: \textit{i}) تقدير نواة الضبابية من الصورة منخفضة الدقة (LR) المعطاة، و\textit{ii}) استعادة الصورة عالية الدقة بناءً على النواة المقدرة. تتضمن هذه الحلول الثنائية نموذجين مدربين بشكل مستقل، مما قد يؤدي إلى عدم توافق جيد بينهما. فقد يؤدي خطأ بسيط في التقدير في الخطوة الأولى إلى انخفاض كبير في أداء الخطوة الثانية. وعلى الجانب الآخر، تقتصر الخطوة الأولى على استخدام معلومات محدودة من الصورة منخفضة الدقة، مما يجعل من الصعب التنبؤ بنواة ضبابية دقيقة للغاية. وبهدف معالجة هذه المشكلات، بدلًا من النظر إلى الخطوتين بشكل منفصل، نعتمد خوارزمية تحسين متكررة (alternating optimization)، التي تتيح تقدير نواة الضبابية واستعادة الصورة عالية الدقة ضمن نموذج واحد. وبشكل خاص، نصمم وحدتين من وحدات الشبكة العصبية التلافيفية، تُسمّى \textit{Restorer} و\textit{Estimator}. حيث تقوم \textit{Restorer} باستعادة الصورة عالية الدقة بناءً على النواة المقدرة، بينما تُقدّر \textit{Estimator} نواة الضبابية باستخدام مساعدة الصورة عالية الدقة المستعادة. ونُكرر تبادل هاتين الوحدتين بشكل متكرر، ونُفَكّك هذه العملية لتكوين شبكة قابلة للتدريب من الطرف إلى الطرف. وبهذا، تستخدم \textit{Estimator} معلومات من كل من الصورة منخفضة الدقة والصورة عالية الدقة، مما يُبسط عملية تقدير نواة الضبابية. والأهم من ذلك، يتم تدريب \textit{Restorer} باستخدام النواة المقدرة من قبل \textit{Estimator}، وليس النواة الحقيقية (ground-truth)، مما يجعل \textit{Restorer} أكثر تحمّلًا لأخطاء التقدير في \textit{Estimator}. أظهرت التجارب الواسعة على مجموعات بيانات مُصطنعة وصور من العالم الحقيقي أن نموذجنا يتفوق بشكل كبير على أحدث الطرق، ويُنتج نتائج مرئية أفضل بسرعة أسرع بكثير. يمكن الوصول إلى كود المصدر من خلال الرابط: \url{https://github.com/greatlog/DAN.git}.