HyperAIHyperAI
il y a 2 mois

Activation Élargie pour une Sur-Résolution d'Images Efficace et Précise

Yu, Jiahui ; Fan, Yuchen ; Yang, Jianchao ; Xu, Ning ; Wang, Zhaowen ; Wang, Xinchao ; Huang, Thomas
Activation Élargie pour une Sur-Résolution d'Images Efficace et Précise
Résumé

Dans ce rapport, nous démontrons que, avec les mêmes paramètres et budgets de calcul, les modèles dotés de caractéristiques plus larges avant l'activation ReLU présentent des performances significativement meilleures pour la super-résolution d'images uniques (SISR). Le réseau résiduel de super-résolution résultant possède une voie d'identité mince avec des canaux plus larges ((2\times) à (4\times)) avant l'activation dans chaque bloc résiduel. Pour élargir davantage l'activation ((6\times) à (9\times)) sans surcoût computationnel, nous introduisons la convolution linéaire de rang faible dans les réseaux de super-résolution et obtenons des compromis encore meilleurs entre précision et efficacité. De plus, en comparaison avec la normalisation par lots ou l'absence de normalisation, nous constatons que l'entraînement avec la normalisation des poids conduit à une meilleure précision pour les réseaux de super-résolution profonds. Notre réseau de super-résolution proposé, \textit{WDSR}, obtient de meilleurs résultats sur le banc d'essai de super-résolution d'images à grande échelle DIV2K en termes de PSNR, avec une complexité computationnelle identique ou inférieure. Sur la base du WDSR, notre méthode a également remporté la première place au défi NTIRE 2018 sur la super-résolution d'images uniques dans les trois pistes réalistes. Des expériences et des études d'élimination progressive soutiennent l'importance d'une activation large pour la super-résolution d'images. Le code est disponible à l'adresse suivante : https://github.com/JiahuiYu/wdsr_ntire2018

Activation Élargie pour une Sur-Résolution d'Images Efficace et Précise | Articles de recherche récents | HyperAI