Au-delà d'un dénoiseur gaussien : apprentissage résiduel de CNN profondes pour le débruitage d'images

L'apprentissage de modèles discriminants pour le débruitage d'images attire récemment une attention considérable en raison de ses performances favorables en matière de débruitage. Dans cet article, nous faisons un pas supplémentaire en étudiant la construction de réseaux neuronaux convolutifs débruiteurs à propagation avant (DnCNNs) afin d'intégrer les progrès réalisés dans les architectures très profondes, les algorithmes d'apprentissage et les méthodes de régularisation au débruitage d'images. Plus précisément, l'apprentissage résiduel et la normalisation par lots sont utilisés pour accélérer le processus d'entraînement ainsi que pour améliorer les performances de débruitage. Contrairement aux modèles discriminants existants qui entraînent généralement un modèle spécifique pour le bruit gaussien blanc additif (AWGN) à un niveau de bruit donné, notre modèle DnCNN est capable de traiter le débruitage gaussien avec un niveau de bruit inconnu (c'est-à-dire le débruitage gaussien aveugle). Grâce à la stratégie d'apprentissage résiduel, DnCNN élimine implicitement l'image propre cachée dans les couches cachées. Cette propriété nous incite à entraîner un seul modèle DnCNN pour aborder plusieurs tâches générales de débruitage d'images telles que le débruitage gaussien, la sur-résolution mono-image et le déblocage des images JPEG. Nos expériences approfondies montrent que notre modèle DnCNN non seulement présente une grande efficacité dans plusieurs tâches générales de débruitage d'images, mais peut également être mis en œuvre efficacement grâce au calcul GPU.