Modulation du restauration d'images avec des niveaux continus via des couches de modification de caractéristiques adaptatives

Dans les tâches de restauration d'images, telles que le débruitage et la super-résolution, la modulation continue des niveaux de restauration est d'une grande importance pour les applications dans le monde réel, mais elle a échoué dans la plupart des méthodes actuelles de restauration d'images basées sur l'apprentissage profond. En apprenant à partir de niveaux de restauration discrets et fixes, les modèles profonds ne peuvent pas être facilement généralisés aux données continues et inconnues. Ce sujet est rarement abordé dans la littérature en raison de la difficulté à moduler des modèles bien entraînés avec certains hyperparamètres. Nous faisons un pas en avant en proposant un cadre unifié de CNN (Convolutional Neural Network) qui comporte peu de paramètres supplémentaires par rapport à un modèle mono-niveau, tout en étant capable de gérer des niveaux de restauration arbitraires entre un niveau initial et un niveau final. Le module supplémentaire, appelé couche AdaFM (Adaptive Feature Modification), effectue une modification des caractéristiques canal par canal et peut adapter un modèle à un autre niveau de restauration avec une haute précision. En ajustant simplement un coefficient d'interpolation, le modèle intermédiaire - AdaFM-Net peut générer des effets de restauration fluides et continus sans artefacts. De nombreuses expériences sur trois tâches de restauration d'images démontrent l'efficacité tant de l'entraînement du modèle que du test de modulation. De plus, nous examinons soigneusement les propriétés des couches AdaFM, fournissant une guidance détaillée sur l'utilisation de la méthode proposée.