Restauration d'images efficace prenant en compte la dégradation quelconque

La reconstruction de détails manquants à partir d'entrées de faible qualité dégradées représente un défi considérable. Les récentes avancées en restauration d'images ont montré l'efficacité de l'apprentissage de grands modèles capables de traiter simultanément diverses dégradations. Cependant, ces approches introduisent une charge computationnelle importante et des paradigmes d'apprentissage complexes, limitant leur utilité pratique. En réponse, nous proposons \textit{DaAIR}, un restaurateur d'images efficace et tout-en-un (All-in-One) qui utilise un apprenant sensible aux dégradations (Degradation-aware Learner, DaLe) dans le régime de rang faible pour exploiter de manière collaborative les aspects partagés et les nuances subtiles travers diverses dégradations, générant ainsi une empreinte sensible aux dégradations (degradation-aware embedding). En allouant dynamiquement la capacité du modèle aux dégradations d'entrée, nous réalisons un restaurateur efficace intégrant l'apprentissage global et spécifique au sein d'un modèle unifié. De plus, \textit{DaAIR} introduit un mécanisme de mise à jour des paramètres rentable en termes de coûts, qui améliore la sensibilité aux dégradations tout en maintenant l'efficacité computationnelle. Des comparaisons étendues sur cinq types de dégradation d'images montrent que notre \textit{DaAIR} surpasse à la fois les modèles All-in-One les plus performants actuellement disponibles et leurs homologues spécifiques à certaines dégradations, confirmant ainsi son efficacité et sa praticabilité. Le code source sera rendu publiquement disponible sur https://eduardzamfir.github.io/daair/