HyperAIHyperAI
il y a 17 jours

Amélioration d'images en faible éclairage à l'aide de modèles de diffusion basés sur la transformation en ondelettes

Hai Jiang, Ao Luo, Songchen Han, Haoqiang Fan, Shuaicheng Liu
Amélioration d'images en faible éclairage à l'aide de modèles de diffusion basés sur la transformation en ondelettes
Résumé

Les modèles de diffusion ont obtenu des résultats prometteurs dans les tâches de restauration d’images, mais ils souffrent de temps de traitement long, d’une consommation excessive de ressources computationnelles et d’une instabilité dans la restauration. Pour résoudre ces problèmes, nous proposons une approche robuste et efficace pour l’amélioration des images en faible éclairage basée sur les modèles de diffusion, baptisée DiffLL. Plus précisément, nous introduisons un modèle de diffusion conditionnel basé sur la transformation en ondelettes (WCDM), qui exploite le pouvoir générateur des modèles de diffusion pour produire des résultats présentant une fidélité perceptuelle satisfaisante. En outre, ce modèle tire parti des avantages de la transformation en ondelettes afin d’accélérer considérablement le processus d’inférence et de réduire la consommation de ressources computationnelles, sans compromettre l’information contenue dans les données. Pour éviter les contenus chaotiques et la diversité excessive, nous réalisons à la fois la diffusion vers l’avant et le débruitage durant la phase d’entraînement du WCDM, permettant ainsi au modèle d’atteindre un débruitage stable et de réduire le caractère aléatoire pendant l’inférence. En outre, nous avons conçu un module de restauration des hautes fréquences (HFRM), qui utilise les détails verticaux et horizontaux de l’image pour compléter l’information diagonale, favorisant ainsi une restauration plus fine et précise. Des expériences étendues sur des benchmarks réels publiques démontrent que notre méthode surpasser les méthodes d’état de l’art existantes, tant du point de vue quantitatif que visuel, tout en offrant des améliorations remarquables en termes d’efficacité par rapport aux méthodes précédentes basées sur les modèles de diffusion. En outre, nous montrons empiriquement que l’application de notre méthode à la détection de visages en faible éclairage révèle également son potentiel pratique. Le code source est disponible à l’adresse suivante : https://github.com/JianghaiSCU/Diffusion-Low-Light.