Robuste Entfernung von Einzelbildreflexionen unter adversarialen Angriffen

Diese Arbeit befasst sich mit dem Problem der Robustheit tiefgelehrter Einzelbild-Reflexionsentfernung (SIRR) gegenüber adversarialen Angriffen. Aktuelle tiefes Lernen-basierte SIRR-Methoden zeigen erhebliche Leistungsabfälle infolge kaum wahrnehmbarer Verzerrungen und Störungen in den Eingabebildern. Um eine umfassende Robustheitsanalyse durchzuführen, führen wir zunächst verschiedene adversariale Angriffe speziell für das SIRR-Problem durch, wobei unterschiedliche Angriffsziele und Bildregionen berücksichtigt werden. Anschließend stellen wir ein robusteres SIRR-Modell vor, das den Cross-Scale-Attention-Modul, den Multi-Scale-Fusion-Modul sowie einen adversarialen Bild-Discriminator integriert. Durch die Nutzung eines Multi-Scale-Mechanismus verringert das Modell die Diskrepanz zwischen den Merkmalen von sauberen und adversarialen Bildern. Der Bild-Discriminator unterscheidet adaptiv zwischen reinen und gestörten Eingaben, wodurch eine zusätzliche, zuverlässige Robustheit erreicht wird. Umfangreiche Experimente auf den Datensätzen Nature, SIR^2 und Real zeigen, dass unser Modell die Robustheit der SIRR erheblich in unterschiedlichen Szenarien verbessert.