Dichte Pixel-zu-Pixel-Harmonisierung mittels kontinuierlicher Bildrepräsentation

Die Harmonisierung hochauflösender (HR) Bilder ist für reale Anwendungen wie Bildsynthese und Bildbearbeitung von großer Bedeutung. Aufgrund der hohen Speicherkosten konzentrieren sich bestehende Methoden zur dichten Pixel-gegen-Pixel-Harmonisierung jedoch hauptsächlich auf die Verarbeitung von niedrigauflösenden (LR) Bildern. Einige neuere Ansätze setzen auf Farb-zu-Farb-Transformationen, sind aber entweder auf bestimmte Auflösungen beschränkt oder stark von handgefertigten Bildfiltern abhängig. In dieser Arbeit erforschen wir den Einsatz der impliziten neuronalen Darstellung (INR) und stellen eine neuartige Harmonisierungsmethode basierend auf impliziten neuronalen Netzwerken (HINet) vor, die, soweit uns bekannt ist, die erste dichte Pixel-gegen-Pixel-Methode für hochauflösende Bilder ohne jegliche Notwendigkeit handgefertigter Filterentwürfe ist. Inspiriert durch die Retinex-Theorie gliedern wir die MLPs in zwei Teile, um jeweils den Inhalt und die Umgebung zusammengesetzter Bilder zu erfassen. Ein Netzwerk für niedrigauflösende Bildvorkenntnisse (LRIP) wird entwickelt, um das Problem der Randinkonsistenz zu mildern, und wir schlagen zudem neue Architekturen für den Trainings- und Inferenzprozess vor. Umfangreiche Experimente belegen die Wirksamkeit unserer Methode im Vergleich zu aktuellen State-of-the-Art-Verfahren. Darüber hinaus werden einige interessante und praktische Anwendungen der vorgeschlagenen Methode untersucht. Der Quellcode ist unter https://github.com/WindVChen/INR-Harmonization verfügbar.