HyperAIHyperAI
il y a 17 jours

Transformateur de généralisation récursive pour la super-résolution d’images

Zheng Chen, Yulun Zhang, Jinjin Gu, Linghe Kong, Xiaokang Yang
Transformateur de généralisation récursive pour la super-résolution d’images
Résumé

Les architectures Transformer ont fait preuve d'une performance remarquable dans la super-résolution d'images (SR). En raison de la complexité computationnelle quadratique de l'attention auto (SA) dans les Transformers, les méthodes existantes ont tendance à appliquer l'attention auto sur des régions locales afin de réduire la charge computationnelle. Toutefois, cette approche locale limite l'exploitation du contexte global, qui est pourtant essentielle pour une reconstruction d'image précise. Dans ce travail, nous proposons le Transformer à généralisation récursive (RGT) pour la super-résolution d'images, capable de capturer des informations spatiales globales et adapté aux images de haute résolution. Plus précisément, nous introduisons une nouvelle attention auto à généralisation récursive (RG-SA). Cette dernière agrège de manière récursive les caractéristiques d'entrée en cartes de caractéristiques représentatives, puis exploite une attention croisée pour extraire des informations globales. Par ailleurs, les dimensions canal des matrices d'attention (requête, clé et valeur) sont davantage amplifiées afin de réduire la redondance dans le domaine canal. En outre, nous combinons la RG-SA avec une attention auto locale afin d'améliorer l'exploitation du contexte global, et proposons une intégration hybride adaptative (HAI) pour l'intégration des modules. Cette HAI permet une fusion directe et efficace entre les caractéristiques provenant de niveaux différents (locaux ou globaux). Des expériences étendues montrent que notre RGT surpasser les méthodes les plus récentes de l'état de l'art, tant sur le plan quantitatif que qualitatif. Le code source et les modèles pré-entraînés sont disponibles à l'adresse suivante : https://github.com/zhengchen1999/RGT.