Reconstruction d'images HDR à partir d'une seule exposition en utilisant des CNN profonds

Les capteurs de caméra ne peuvent capturer qu'une plage limitée de luminance simultanément, et pour créer des images à grande gamme dynamique (HDR), un ensemble d'expositions différentes est généralement combiné. Dans cet article, nous abordons le problème de la prédiction des informations perdues dans les zones saturées des images, afin de permettre la reconstruction HDR à partir d'une seule exposition. Nous montrons que ce problème est bien adapté aux algorithmes d'apprentissage profond et proposons un réseau neuronal convolutif profond (CNN) spécifiquement conçu en tenant compte des défis liés à la prédiction des valeurs HDR. Pour entraîner le CNN, nous collectons un grand ensemble de données d'images HDR, que nous augmentons en simulant la saturation du capteur pour une variété de caméras. Afin d'améliorer encore plus la robustesse, nous pré-entraînons le CNN sur un ensemble de données HDR simulé créé à partir d'un sous-ensemble de la base de données MIT Places. Nous démontrons que notre approche peut reconstruire des résultats HDR visuellement convaincants en haute résolution dans une large gamme de situations, et qu'elle se généralise bien à la reconstruction d'images capturées avec des caméras quelconques et bas de gamme utilisant des fonctions de réponse caméra inconnues et un post-traitement. De plus, nous comparons notre méthode aux méthodes existantes pour l'expansion HDR et montrons des résultats de haute qualité également pour l'éclairage basé sur les images. Enfin, nous évaluons les résultats dans une expérience subjective réalisée sur un écran HDR. Cela montre que les images HDR reconstruites sont visuellement convaincantes, avec d'importantes améliorations par rapport aux méthodes existantes.