Réseaux de Résidus Améliorés pour le Repoussement d'Images Basé sur le Contexte

Bien que les humains excellent dans la prédiction de ce qui se trouve au-delà des limites d'une image, les modèles profonds peinent à comprendre le contexte et l'extrapolation à partir des informations conservées. Cette tâche est connue sous le nom de « image outpainting » et consiste à générer des extensions réalistes des limites d'une image. Les modèles actuels utilisent des réseaux génératifs adverses pour produire des résultats qui manquent de cohérence locale des caractéristiques de l'image et paraissent faux. Nous proposons deux méthodes pour améliorer cette problématique : l'utilisation d'un discriminateur local et global, ainsi que l'ajout de blocs résiduels au sein de la section d'encodage du réseau. Les comparaisons entre notre modèle et le modèle de base en termes de perte L1, d'erreur quadratique moyenne (MSE) et de différences qualitatives montrent que notre modèle est capable d'étendre naturellement les limites des objets et de produire des images plus internement cohérentes par rapport aux méthodes actuelles, bien qu'il génère des images de moindre fidélité.