Zu flexibler blinden Entfernung von JPEG-Artefakten

Das Training eines einzelnen tiefen blinden Modells zur Bearbeitung verschiedener Qualitätsfaktoren für die Entfernung von JPEG-Bildartefakten hat aufgrund seiner praktischen Anwendbarkeit erhebliches Interesse gefunden. Bestehende tiefe blinde Methoden rekonstruieren jedoch in der Regel das Bild direkt, ohne den Qualitätsfaktor vorherzusagen, wodurch sie weniger flexibel als nicht-blinde Methoden sind, was die Kontrolle des Outputs betrifft. Um dieses Problem zu beheben, schlagen wir in dieser Arbeit ein flexibles blindes Faltungsneuronales Netzwerk (Convolutional Neural Network) vor, nämlich FBCNN, das einen anpassbaren Qualitätsfaktor vorhersagen kann, um den Kompromiss zwischen Artefaktentfernung und Detailerhaltung zu steuern. Genauer gesagt trennt FBCNN den Qualitätsfaktor vom JPEG-Bild durch ein Trennungsmodul (Decoupler Module) und integriert dann den vorhergesagten Qualitätsfaktor über einen Qualitätsfaktor-Aufmerksamkeitsblock (Quality Factor Attention Block) in das nachfolgende Rekonstruktionsmodul zur flexiblen Steuerung. Darüber hinaus stellen wir fest, dass bestehende Methoden neigen, bei nicht ausgerichteten doppelten JPEG-Bildern zu scheitern, selbst bei einer Verschiebung von nur einem Pixel. Daher schlagen wir ein Modell für doppelte JPEG-Degradierung vor, um die Trainingsdaten zu erweitern. Ausführliche Experimente an einzelnen JPEG-Bildern, allgemeineren doppelten JPEG-Bildern und realen JPEG-Bildern zeigen, dass unser vorgeschlagenes FBCNN im Vergleich zu den besten aktuellen Methoden sowohl in quantitativen Metriken als auch in visueller Qualität günstige Leistungen erzielt.