Command Palette
Search for a command to run...
Robuste Entfernung von Einzelbildreflexionen unter adversarialen Angriffen
Robuste Entfernung von Einzelbildreflexionen unter adversarialen Angriffen
Jianfeng Lu Wenqi Ren Zhaoxin Fan Wenhan Luo Kaihao Zhang Zhenyuan Zhang Zhenbo Song
Zusammenfassung
Diese Arbeit befasst sich mit dem Problem der Robustheit tiefgelehrter Einzelbild-Reflexionsentfernung (SIRR) gegenüber adversarialen Angriffen. Aktuelle tiefes Lernen-basierte SIRR-Methoden zeigen erhebliche Leistungsabfälle infolge kaum wahrnehmbarer Verzerrungen und Störungen in den Eingabebildern. Um eine umfassende Robustheitsanalyse durchzuführen, führen wir zunächst verschiedene adversariale Angriffe speziell für das SIRR-Problem durch, wobei unterschiedliche Angriffsziele und Bildregionen berücksichtigt werden. Anschließend stellen wir ein robusteres SIRR-Modell vor, das den Cross-Scale-Attention-Modul, den Multi-Scale-Fusion-Modul sowie einen adversarialen Bild-Discriminator integriert. Durch die Nutzung eines Multi-Scale-Mechanismus verringert das Modell die Diskrepanz zwischen den Merkmalen von sauberen und adversarialen Bildern. Der Bild-Discriminator unterscheidet adaptiv zwischen reinen und gestörten Eingaben, wodurch eine zusätzliche, zuverlässige Robustheit erreicht wird. Umfangreiche Experimente auf den Datensätzen Nature, SIR^2 und Real zeigen, dass unser Modell die Robustheit der SIRR erheblich in unterschiedlichen Szenarien verbessert.