Tiefe Bildpriorität

Tiefe Faltungsnetze sind zu einem beliebten Werkzeug für die Bildgenerierung und -restauration geworden. Im Allgemeinen wird ihre ausgezeichnete Leistung ihrer Fähigkeit zugeschrieben, realistische Bildpriors aus einer großen Anzahl von Beispielbildern zu lernen. In dieser Arbeit zeigen wir jedoch, dass die Struktur eines Generatoren-Netzes bereits vor jeglichem Lernprozess ausreicht, um eine beträchtliche Menge an niedrigstufigen Bildstatistiken zu erfassen. Um dies zu demonstrieren, zeigen wir, dass ein zufällig initialisiertes neuronales Netzwerk als handgefertigter Prior mit hervorragenden Ergebnissen in Standard-Inversproblemen wie Rauschunterdrückung (denoising), Superauflösung (super-resolution) und Inpainting verwendet werden kann.Darüber hinaus kann der gleiche Prior verwendet werden, um tiefere neuronale Repräsentationen zu invertieren, um sie zu diagnostizieren, und um Bilder basierend auf Eingabepaaren von Blitz- und ohne-Blitz-Bildern wiederherzustellen. Neben seinen vielfältigen Anwendungen hebt unser Ansatz das induktive Bias hervor, das durch übliche Generatoren-Netzarchitekturen erfasst wird. Er schließt auch die Lücke zwischen zwei sehr populären Familien von Bildrestaurationsmethoden: lernbasierte Methoden, die tiefe Faltungsnetze verwenden, und lernfreie Methoden, die auf handgefertigten Bildprioren wie Selbstähnlichkeit (self-similarity) basieren. Der Quellcode und zusätzliches Material sind unter https://dmitryulyanov.github.io/deep_image_prior verfügbar.