Apprentissage de fluxs orientés vers les tâches pour guider mutuellement l’alignement des caractéristiques dans le débruitage de vidéos synthétisées et réelles

Le débruitage vidéo vise à supprimer le bruit des vidéos afin d’en récupérer des versions propres. Certaines recherches existantes montrent que le flux optique peut aider au débruitage en exploitant des indices spatio-temporels supplémentaires provenant des trames voisines. Toutefois, l’estimation du flux optique elle-même est sensible au bruit et peut devenir inutilisable en présence de niveaux élevés de bruit. A cet effet, nous proposons une nouvelle méthode de débruitage vidéo guidée par un flux optique raffiné à plusieurs échelles, plus robuste aux différents niveaux de bruit. Notre méthode se compose principalement d’un module de raffinement de flux orienté vers le débruitage (DFR) et d’un module de propagation mutuelle de débruitage guidée par le flux (FMDP). Contrairement aux approches antérieures qui utilisent directement des solutions de flux disponibles « out-of-the-box », le module DFR apprend d’abord des flux optiques robustes à plusieurs échelles, tandis que le module FMDP exploite l’information de flux guidée en introduisant progressivement et en raffinant des informations de flux de basse à haute résolution. En combinaison avec une synthèse réelle de dégradations par bruit, le réseau de débruitage guidé par flux à plusieurs échelles proposé atteint des performances de pointe sur le débruitage gaussien synthétique ainsi que sur le débruitage vidéo réel. Les codes source seront rendus accessibles au public.