Zu konvolutionsbasierter blinden Entrauschung von realen Fotografien

Während tiefe Faltungsneuronale Netze (CNNs) beeindruckende Erfolge bei der Bildentrausung mit additivem weißem Gaußschen Rauschen (AWGN) erzielt haben, bleibt ihre Leistung bei realen, rauschigen Fotografien begrenzt. Der Hauptgrund dafür ist, dass ihre gelernten Modelle leicht über das vereinfachte AWGN-Modell überanpassen, das sich stark vom komplexen realen Rauschverhalten unterscheidet. Um die Generalisierungsfähigkeit von tiefen CNN-Entrauschermodellen zu verbessern, schlagen wir vor, ein faltungsbasiertes blindes Entrauschnetzwerk (CBDNet) mit einem realistischeren Rauschmodell und realen Paaren von rauschigen und sauberen Bildern zu trainieren. Einerseits werden sowohl signalabhängiges Rauschen als auch die in der Kamera erfolgende Signalverarbeitung berücksichtigt, um realistische rauschige Bilder zu synthetisieren. Andererseits werden auch reale, rauschige Fotografien und deren nahezu rauscharme Entsprechungen verwendet, um unser CBDNet zu trainieren. Um eine interaktive Strategie zur bequemen Korrektur des Entrauschungsergebnisses weiterzubieten, wird ein Rauschschaatzungsunternetzwerk eingebettet, das asymmetrisches Lernen anwendet, um eine Unterschätzung des Rauschpegels zu unterdrücken. Ausführliche experimentelle Ergebnisse auf drei Datensätzen mit realen, rauschigen Fotografien zeigen deutlich die überlegene Leistung des CBDNet im Vergleich zu den aktuellen Stand der Technik sowohl in quantitativen Metriken als auch in Bezug auf visuelle Qualität. Der Code ist unter https://github.com/GuoShi28/CBDNet verfügbar.