Amélioration d'images en faible éclairage sensible au rapport signal-bruit

Cet article présente une nouvelle solution pour l’amélioration des images en faible luminosité, en exploitant collectivement des transformateurs sensibles au rapport signal-bruit (SNR) et des modèles convolutionnels afin d’effectuer dynamiquement des opérations spatialement variables sur les pixels. Ces opérations comprennent des traitements à longue portée pour les régions d’image présentant un SNR extrêmement faible, et des traitements à courte portée pour les autres régions. Nous proposons d’introduire un prior SNR afin de guider la fusion de caractéristiques, et formulons un transformateur sensible au SNR à l’aide d’un nouveau modèle d’attention auto-référentielle, permettant d’éviter que les tokens provenant de régions bruitées à très faible SNR n’altèrent le processus d’inférence. Des expérimentations étendues montrent que notre cadre atteint de manière cohérente des performances supérieures à celles des méthodes de pointe (SOTA) sur sept benchmarks représentatifs, tout en conservant la même architecture. Par ailleurs, une étude utilisateur à grande échelle impliquant 100 participants a été menée pour confirmer la qualité perceptuelle supérieure de nos résultats.