Command Palette
Search for a command to run...
Deep Image Prior
Deep Image Prior
Ulyanov Dmitry Vedaldi Andrea Lempitsky Victor
Zusammenfassung
Tiefgehende Faltungsnetze sind zu einem beliebten Werkzeug für die Bildgenerierung und -rekonstruktion geworden. Im Allgemeinen wird ihre herausragende Leistung auf ihre Fähigkeit zurückgeführt, realistische Bilddatenpräferenzen aus einer großen Anzahl von Beispielbildern zu lernen. In dieser Arbeit zeigen wir dagegen, dass die Struktur eines Generatoren-Netzwerks bereits ausreicht, um eine große Menge an niedrigstufigen Bilddatenstatistiken zu erfassen, noch bevor irgendein Lernen stattfindet. Um dies zu demonstrieren, zeigen wir, dass ein zufällig initialisiertes neuronales Netzwerk als handgefertigter Prior eingesetzt werden kann, der hervorragende Ergebnisse bei klassischen inversen Problemen wie Rauschunterdrückung, Super-Resolution und Inpainting erzielt. Darüber hinaus lässt sich derselbe Prior verwenden, um tiefe neuronale Repräsentationen zu invertieren, um sie zu analysieren, und um Bilder anhand von Flash-Kein-Flash-Eingabepaaren wiederherzustellen. Neben ihren vielfältigen Anwendungen hebt unser Ansatz die induktive Voreingenommenheit hervor, die durch herkömmliche Generator-Netzwerkarchitekturen eingefangen wird. Zudem schließt er die Lücke zwischen zwei sehr populären Familien von Bildrekonstruktionsmethoden: lernbasierten Methoden mit tiefgehenden Faltungsnetzen und lernfreien Methoden, die auf handgefertigten Bilddatenpräferenzen wie Selbstähnlichkeit basieren. Der Quellcode und ergänzende Materialien sind unter https://dmitryulyanov.github.io/deep_image_prior verfügbar.