ExposureDiffusion : Apprendre à exposer pour l'amélioration d'images en faible éclairage

Les méthodes précédentes de renforcement d’images en faible luminosité basées sur des images brutes reposaient principalement sur des réseaux neuronaux à propagation avant afin d’apprendre des applications déterministes des images sous-exposées vers des images normalement exposées. Toutefois, ces approches se sont révélées incapables de capturer efficacement les informations critiques sur la distribution des données, entraînant des résultats visuels insatisfaisants. Ce travail aborde ce problème en intégrant de manière fluide un modèle de diffusion avec un modèle physique d’exposition. Contrairement à un modèle de diffusion classique qui doit effectuer un débruitage gaussien, notre processus de restauration peut démarrer directement à partir d’une image bruitée, sans avoir besoin de partir d’un bruit pur, grâce à l’intégration du modèle physique d’exposition. En conséquence, notre méthode obtient des performances significativement améliorées ainsi qu’un temps d’inférence réduit par rapport aux modèles de diffusion classiques. Pour exploiter pleinement les avantages des différentes étapes intermédiaires, nous proposons également une couche résiduelle adaptative, capable d’identifier efficacement les effets secondaires lors du raffinement itératif lorsque les résultats intermédiaires sont déjà correctement exposés. Le cadre proposé est compatible avec des jeux de données réelles appariées, des modèles de bruit d’état de l’art, ainsi que divers réseaux de base (backbones). Notons que ce cadre est également compatible avec des jeux de données réelles appariées, des modèles de bruit réels ou synthétiques, ainsi que des architectures de réseaux de base variées. Nous évaluons la méthode proposée sur diverses bases de données publiques, obtenant des résultats prometteurs avec des améliorations constantes quel que soit le modèle d’exposition ou le réseau de base utilisé. En outre, la méthode proposée démontre une meilleure capacité de généralisation face à des rapports d’amplification inconnus, tout en surpassant un modèle neuronal à propagation avant plus volumineux, même lorsqu’elle est mise en œuvre avec un nombre réduit de paramètres.