Bild Feinabstimmungsinpainting

Bildinpainting-Techniken haben kürzlich unter der Unterstützung von generativen adversären Netzen (GANs) vielversprechende Verbesserungen gezeigt. Dennoch litten die meisten dieser Techniken oft an erzeugten Ergebnissen mit unvernünftiger Struktur oder Unscharfe. Um dieses Problem zu mildern, präsentieren wir in diesem Artikel ein Ein-Stufen-Modell, das dichte Kombinationen von dilatierten Faltungen verwendet, um größere und effektivere Rezeptive Felder zu erzielen. Dank dieser Netzwerk-Eigenschaft können wir große Bereiche in einem unvollständigen Bild leichter wiederherstellen. Um diesen effizienten Generator besser zu trainieren, nutzen wir neben dem häufig verwendeten VGG-Funktionsanpassungsverlust einen neu entwickelten selbstgeführten Regressionsverlust, der sich auf unsichere Bereiche konzentriert und die semantischen Details verbessert. Zudem entwerfen wir eine geometrische Ausrichtungseinschränkung, um den pixelbasierten Abstand zwischen vorhergesagten Merkmalen und den tatsächlichen Merkmalen zu kompensieren. Wir verwenden außerdem einen Diskriminator mit lokalen und globalen Zweigen, um die Konsistenz von lokal-globalem Inhalt sicherzustellen. Um die Qualität der generierten Bilder weiter zu verbessern, wird ein Diskriminator-Funktionsanpassungsverfahren auf der lokalen Zweige eingeführt, das die Ähnlichkeit der Zwischenmerkmale zwischen synthetischen und realen Bildausschnitten dynamisch minimiert. Ausführliche Experimente auf mehreren öffentlichen Datensätzen zeigen, dass unser Ansatz den aktuellen Stand der Technik übertrifft. Der Quellcode ist unter https://github.com/Zheng222/DMFN verfügbar.