Matting d'Images Naturelles par Attention Contextuelle Guidée

Au cours des dernières années, les approches basées sur l'apprentissage profond ont réalisé des améliorations remarquables dans le domaine du matting d'images naturelles. Bien que de nombreuses méthodes puissent générer des estimations alpha visuellement plausibles, elles produisent généralement des structures ou des textures floues dans les zones semi-transparents. Ceci est dû à l'ambiguïté locale des objets transparents. Une solution possible consiste à exploiter les informations de l'environnement lointain pour estimer l'opacité locale. Les méthodes traditionnelles basées sur l'affinité souffrent souvent d'une complexité computationnelle élevée, ce qui les rend inadaptées pour l'estimation alpha en haute résolution. Inspirés par les méthodes basées sur l'affinité et les succès de l'attention contextuelle dans le domaine du remplissage (inpainting), nous avons développé une nouvelle approche de bout en bout pour le matting d'images naturelles avec un module d'attention contextuelle guidée, spécifiquement conçu pour ce type de tâche. Le module d'attention contextuelle guidée propage directement les informations d'opacité de haut niveau de manière globale, en se basant sur l'affinité de bas niveau apprise. La méthode proposée peut imiter le flux d'informations des méthodes basées sur l'affinité tout en utilisant simultanément les caractéristiques riches apprises par les réseaux neuronaux profonds. Les résultats expérimentaux sur l'ensemble de test Composition-1k et le jeu de données de référence alphamatting.com montrent que notre méthode surpassent les approches actuelles les plus avancées en matière de matting d'images naturelles. Le code source et les modèles sont disponibles à l'adresse suivante : https://github.com/Yaoyi-Li/GCA-Matting.