Command Palette
Search for a command to run...
SAD: Salienzbasierte Verteidigungsstrategien gegen feindliche Beispiele
SAD: Salienzbasierte Verteidigungsstrategien gegen feindliche Beispiele
Richard Tran David Patrick Michael Geyer Amanda S. Fernandez
Zusammenfassung
Mit dem steigenden Interesse an maschinellem und tiefem Lernen (Deep Learning) wird zunehmend der Fokus auf deren Anfälligkeit für bösartige Eingaben gelegt. Diese feindlichen Beispiele (adversarial examples) verfälschen die Vorhersagen des Modells und stellen eine wachsende Bedrohung für praktische Sicherheit dar. Um diese Angriffe zu bekämpfen, können neuronale Netze traditionelle Bildverarbeitungsmethoden oder moderne Verteidigungsmodelle nutzen, um Störungen in den Daten zu reduzieren. Verteidigungsansätze, die eine globale Reduzierung von Rauschen betreiben, sind effektiv gegen feindliche Angriffe, jedoch führt ihre verlustbehaftete Methode oft zu einer Verzerrung wichtiger Daten innerhalb des Bildes. In dieser Arbeit schlagen wir einen ansatzbasierten visuellen Salienzverfahren vor, um Daten, die durch einen feindlichen Angriff beeinflusst wurden, zu bereinigen. Unser Modell nutzt die salienten Bereiche eines feindlichen Bildes, um eine gezielte Gegenmaßnahme zu erzeugen und gleichzeitig den Informationsverlust in den bereinigten Bildern zu minimieren. Wir messen die Genauigkeit unseres Modells, indem wir die Effektivität modernster Salienzmethoden vor dem Angriff, während des Angriffs und nach der Anwendung von Bereinigungsverfahren evaluieren. Wir zeigen die Effektivität unseres vorgeschlagenen Ansatzes im Vergleich zu verwandten Verteidigungsmethoden und etablierten feindlichen Angriffsmethoden anhand zweier Salienzdatensätze. Unser gezielter Ansatz zeigt erhebliche Verbesserungen in einer Reihe standardisierter statistischer und Distanzsalienzmetriken im Vergleich sowohl zu traditionellen als auch zu modernsten Ansätzen.