Cartographie de tonalité inverse profonde

Extraire une image à grand dynamisme (HDR) à partir d’un seul input à faible dynamisme (LDR) constitue un problème mal posé, dans lequel il est nécessaire de compenser les données perdues dues à des sur- ou sous-expositions ainsi qu’à la quantification des couleurs. Pour relever ce défi, nous proposons la première approche fondée sur l’apprentissage profond permettant une inférence entièrement automatique à l’aide de réseaux de neurones convolutifs. Étant donné qu’une approche directe visant à inférer une image HDR sur 32 bits à partir d’une image LDR sur 8 bits s’avère intractable en raison des difficultés d’entraînement, nous adoptons une méthode indirecte : l’idée centrale de notre méthode consiste à synthétiser des images LDR prises avec différentes expositions (c’est-à-dire des images bracketées) à l’aide d’un apprentissage supervisé, puis à reconstruire une image HDR en fusionnant ces images. En apprenant les variations relatives des valeurs des pixels dues à des expositions accrues ou réduites grâce à des réseaux de convolution 3D, notre méthode parvient à restituer non seulement des tons naturels sans introduire de bruit visible, mais aussi les couleurs des pixels saturés. Nous démontrons l’efficacité de notre méthode en comparant nos résultats non seulement aux résultats des méthodes classiques, mais aussi aux images HDR de référence (ground-truth).