SDWNet : Un réseau dilaté direct avec transformation par ondelettes pour le déflouage d’images

Le déflouage d’images est un problème classique de vision par ordinateur visant à restaurer une image nette à partir d’une image floue. Pour résoudre ce problème, les méthodes existantes adoptent souvent une architecture Encode-Decode afin de concevoir des réseaux complexes capables d’obtenir de bonnes performances. Toutefois, la plupart de ces approches reposent sur des structures répétées de sous-échantillonnage et de suréchantillonnage pour étendre le champ réceptif, ce qui entraîne une perte d’informations texturales au cours du processus d’échantillonnage, et certaines d’entre elles intègrent plusieurs étapes, ce qui complique la convergence du modèle. À cet égard, notre modèle utilise des convolutions dilatées pour obtenir un large champ réceptif tout en préservant une haute résolution spatiale. En exploitant pleinement les différents champs réceptifs, notre méthode parvient à des performances améliorées. Par ailleurs, nous réduisons le nombre d’opérations de sous-échantillonnage et de suréchantillonnage, et proposons une architecture réseau simplifiée. En outre, nous introduisons un nouveau module basé sur la transformation en ondelettes, qui aide efficacement le réseau à restaurer des détails textuels haute fréquence nets. Des évaluations qualitatives et quantitatives sur des jeux de données réels et synthétiques montrent que notre méthode de déflouage atteint des performances comparables à celles des algorithmes existants, tout en nécessitant des exigences de formation bien moindres. Le code source et les modèles pré-entraînés sont disponibles à l’adresse suivante : https://github.com/FlyEgle/SDWNet.