HyperAIHyperAI

Command Palette

Search for a command to run...

Robuste Entfernung von Einzelbildreflexionen unter adversarialen Angriffen

Jianfeng Lu Wenqi Ren Zhaoxin Fan Wenhan Luo Kaihao Zhang Zhenyuan Zhang Zhenbo Song

Zusammenfassung

Diese Arbeit befasst sich mit dem Problem der Robustheit tiefgelehrter Einzelbild-Reflexionsentfernung (SIRR) gegenüber adversarialen Angriffen. Aktuelle tiefes Lernen-basierte SIRR-Methoden zeigen erhebliche Leistungsabfälle infolge kaum wahrnehmbarer Verzerrungen und Störungen in den Eingabebildern. Um eine umfassende Robustheitsanalyse durchzuführen, führen wir zunächst verschiedene adversariale Angriffe speziell für das SIRR-Problem durch, wobei unterschiedliche Angriffsziele und Bildregionen berücksichtigt werden. Anschließend stellen wir ein robusteres SIRR-Modell vor, das den Cross-Scale-Attention-Modul, den Multi-Scale-Fusion-Modul sowie einen adversarialen Bild-Discriminator integriert. Durch die Nutzung eines Multi-Scale-Mechanismus verringert das Modell die Diskrepanz zwischen den Merkmalen von sauberen und adversarialen Bildern. Der Bild-Discriminator unterscheidet adaptiv zwischen reinen und gestörten Eingaben, wodurch eine zusätzliche, zuverlässige Robustheit erreicht wird. Umfangreiche Experimente auf den Datensätzen Nature, SIR^2 und Real zeigen, dass unser Modell die Robustheit der SIRR erheblich in unterschiedlichen Szenarien verbessert.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp