Suppression robuste des réflexions dans une seule image face aux attaques adverses

Ce papier aborde le problème de la suppression robuste des réflexions dans une seule image (SIRR) par apprentissage profond face aux attaques adverses. Les méthodes actuelles basées sur l'apprentissage profond pour la SIRR subissent une dégradation significative des performances en raison de distorsions et de perturbations imperceptibles présentes dans les images d'entrée. Pour une étude approfondie de la robustesse, nous menons tout d'abord diverses attaques adverses spécifiquement conçues pour le problème de la SIRR, c’est-à-dire visant différents objectifs et régions de l’image. Ensuite, nous proposons un modèle robuste pour la SIRR, intégrant un module d’attention à échelle croisée, un module de fusion multi-échelle et un discriminateur d’image adversaire. Grâce à un mécanisme multi-échelle, le modèle réduit l’écart entre les caractéristiques extraites des images propres et celles des images altérées par une attaque adverse. Le discriminateur d’image distingue de manière adaptative les entrées propres des entrées bruitées, renforçant ainsi la robustesse fiable du modèle. Des expériences étendues sur les jeux de données Nature, SIR^2 et Real démontrent que notre modèle améliore de manière remarquable la robustesse de la SIRR dans des scènes variées.