HyperAIHyperAI
il y a 17 jours

WaveNet : Amélioration d'images sensible aux ondes

{Lishun Wang, Yong Zhong, Zehao Li, Jiachen Dang}
WaveNet : Amélioration d'images sensible aux ondes
Résumé

En tant que tâche de vision basse niveau, l’amélioration d’image est largement utilisée dans diverses applications de vision par ordinateur. Récemment, plusieurs méthodes combinant des réseaux de neurones convolutifs (CNN), des réseaux de perceptrons multicouches (MLP), des architectures Transformer et la transformation de Fourier ont obtenu des résultats prometteurs sur les tâches d’amélioration d’image. Toutefois, ces approches peinent à atteindre un équilibre entre précision et coût computationnel. Dans cet article, nous reformulons le problème d’amélioration comme une tâche de modulation de signal et proposons une nouvelle architecture appelée WaveNet, qui se distingue par sa performance sur diverses configurations et améliore l’expression des caractéristiques grâce à une représentation fonctionnelle ondulatoire. Plus précisément, afin de mieux capturer des représentations de caractéristiques ondulatoires, nous proposons de modéliser chaque pixel comme une valeur échantillonnée d’une fonction de signal composée de trois fonctions sinusoïdales (onde cosinus (CW), onde sinus (SW) et onde porte (GW)), inspirées de la transformation de Fourier. La génération de ces caractéristiques ondulatoires nécessite l’estimation de l’amplitude et de la phase. Le terme d’amplitude encode le contenu original des caractéristiques, tandis que le terme de phase module les relations entre les entrées variées et les poids fixes. Pour obtenir de manière dynamique la phase et l’amplitude, nous introduisons le bloc de transformation ondulatoire (Wave Transform Block, WTB), qui génère adaptativement les ondes et module de manière dynamique le mode de superposition des ondes. En s’appuyant sur ce bloc, nous proposons une architecture efficace, WaveNet, dédiée à l’amélioration d’image. Des expériences étendues sur six jeux de données réels démontrent que notre modèle obtient des résultats quantitatifs et qualitatifs supérieurs à ceux des méthodes de pointe. Le code source et les modèles pré-entraînés sont disponibles à l’adresse suivante : https://github.com/DeniJsonC/WaveNet.