Développement de l'optimisation alternée pour la sur-résolution aveugle

Les méthodes précédentes décomposent le problème de sur-résolution aveugle (SR) en deux étapes séquentielles : \textit{i}) estimer le noyau de flou à partir de l'image de faible résolution (LR) donnée et \textit{ii}) restaurer l'image SR basée sur le noyau estimé. Cette solution en deux étapes implique deux modèles entraînés indépendamment, qui peuvent ne pas être bien compatibles entre eux. Une petite erreur d'estimation lors de la première étape peut entraîner une baisse importante des performances lors de la seconde étape. D'autre part, la première étape ne peut utiliser qu'une information limitée provenant de l'image LR, ce qui rend difficile la prédiction d'un noyau de flou très précis.Pour répondre à ces problèmes, au lieu de considérer ces deux étapes séparément, nous adoptons un algorithme d'optimisation alternée, capable d'estimer le noyau de flou et de restaurer l'image SR dans un seul modèle. Plus précisément, nous concevons deux modules neuronaux convolutifs, nommés \textit{Restaurateur} et \textit{Estimateur}. Le module \textit{Restaurateur} restaure l'image SR basée sur le noyau prédit, tandis que le module \textit{Estimateur} estime le noyau de flou avec l'aide de l'image SR restaurée. Nous alternons ces deux modules répétitivement et déroulons ce processus pour former un réseau entièrement entraînable.De cette manière, le module \textit{Estimateur} utilise les informations provenant à la fois des images LR et SR, ce qui facilite l'estimation du noyau de flou. Plus important encore, le module \textit{Restaurateur} est entraîné avec le noyau estimé par \textit{Estimateur}, plutôt qu'avec le noyau vérité-terrain (ground-truth), ce qui permet au \textit{Restaurateur} d'être plus tolérant aux erreurs d'estimation du \textit{Estimateur}. De nombreux expériences menées sur des jeux de données synthétiques et des images du monde réel montrent que notre modèle peut largement surpasser les méthodes les plus avancées actuellement disponibles et produire des résultats visuellement plus satisfaisants à une vitesse beaucoup plus élevée. Le code source est disponible à l'adresse suivante : https://github.com/greatlog/DAN.git.