Transformateur multi-spectral implicite : un modèle léger et efficace pour la translation d’images visibles vers infrarouges

Dans le domaine de la vision par ordinateur, les images en lumière visible présentent souvent un contraste faible dans des conditions de faible éclairage, ce qui constitue un défi majeur. Bien que l'imagerie infrarouge offre une solution potentielle, son utilisation s'accompagne de coûts élevés et de limitations pratiques. Les récents progrès en apprentissage profond, notamment le déploiement des réseaux génératifs antagonistes (GAN), ont permis de transformer efficacement les images en lumière visible en images infrarouges. Toutefois, ces méthodes souffrent souvent de phases d’entraînement instables et peuvent produire des résultats sous-optimaux. Pour remédier à ces problèmes, nous proposons un nouveau modèle end-to-end basé sur les Transformers, capable de convertir de manière efficace les images en lumière visible en images infrarouges de haute fidélité. Initialement, le module de cartographie de textures et l’adaptateur de perception des couleurs coopèrent pour extraire les caractéristiques de texture et de couleur à partir de l’image en lumière visible. Le module d’agrégation de fusion dynamique intègre ensuite ces caractéristiques. Enfin, la transformation en image infrarouge est affinée grâce à l’action synergique de l’adaptateur de perception des couleurs et du mécanisme d’attention améliorée de perception. Des expériences d’évaluation approfondies confirment que notre modèle surpasser les méthodes existantes, produisant des images infrarouges de qualité nettement supérieure, tant du point de vue qualitatif que quantitatif. En outre, le modèle proposé permet des applications ultérieures plus efficaces pour les images infrarouges par rapport aux autres approches.