Réseau Dense Résiduel pour la Restauration d'Images

Les réseaux neuronaux convolutifs (CNN) ont récemment connu un grand succès dans le domaine de la restauration d'images (IR) et ont également offert des caractéristiques hiérarchiques. Cependant, la plupart des modèles de restauration d'images basés sur des CNN profonds n'utilisent pas pleinement les caractéristiques hiérarchiques provenant des images de faible qualité originales, ce qui entraîne une performance relativement faible. Dans cet article, nous proposons un nouveau réseau dense résiduel (RDN) pour résoudre ce problème en restauration d'images. Nous exploitons pleinement les caractéristiques hiérarchiques de toutes les couches convolutives. Plus précisément, nous introduisons un bloc dense résiduel (RDB) pour extraire des caractéristiques locales abondantes grâce à des couches convolutives densément connectées. Le RDB permet également des connexions directes entre l'état du RDB précédent et toutes les couches du RDB actuel, conduisant ainsi à un mécanisme de mémoire continue. Pour apprendre de manière adaptative des caractéristiques plus efficaces à partir des caractéristiques locales précédentes et actuelles et stabiliser l'entraînement d'un réseau plus large, nous avons proposé une fusion de caractéristiques locales au sein du RDB. Après avoir obtenu pleinement des caractéristiques locales denses, nous utilisons une fusion de caractéristiques globales pour apprendre conjointement et de manière adaptative les caractéristiques hiérarchiques globales dans leur ensemble. Nous démontrons l'efficacité du RDN avec plusieurs applications représentatives en restauration d'images : la super-résolution mon-image, le débruitage gaussien d'image, la réduction des artefacts de compression d'image et le défloutage d'image. Les expériences menées sur des jeux de données de référence et réels montrent que notre RDN offre une performance favorable par rapport aux méthodes les plus avancées pour chaque tâche de restauration d'images, tant quantitativement que visuellement.