Attention en bande pour la restauration d’images
En tant que tâche classique, la restauration d’image vise à récupérer l’image nette latente à partir de son contrepartie dégradée. Ces dernières années, grâce à la puissante capacité des mécanismes d’attention auto-associative à capturer des dépendances à longue portée, les méthodes basées sur les Transformers ont atteint des performances prometteuses sur diverses tâches de restauration d’image. Toutefois, l’attention auto-associative classique entraîne une complexité quadratique par rapport à la taille d’entrée, ce qui limite son application plus poussée dans le domaine de la restauration d’image. Dans cet article, nous proposons un réseau d’attention en bande (Strip Attention Network, SANet) pour la restauration d’image, afin d’intégrer efficacement et efficacement les informations. Plus précisément, nous introduisons une unité d’attention en bande, qui permet de capter les informations contextuelles pour chaque pixel à partir de ses voisins adjacents situés sur la même ligne ou la même colonne. En appliquant cette opération dans différentes directions, chaque position peut percevoir des informations provenant d’une région élargie. Par ailleurs, nous utilisons des champs réceptifs variés dans différents groupes de caractéristiques afin d’améliorer l’apprentissage de représentation. En intégrant ces architectures dans un squelette en forme de U, notre SANet obtient des résultats compétitifs par rapport aux algorithmes de pointe sur plusieurs tâches de restauration d’image. Le code source est disponible à l’adresse suivante : https://github.com/c-yn/SANet.