HyperAIHyperAI
vor 17 Tagen

Sneaky Spikes: Aufdeckung von unterschwelligen Backdoor-Angriffen in spiking neural networks mit neuromorpher Daten

Gorka Abad, Oguzhan Ersoy, Stjepan Picek, Aitor Urbieta
Sneaky Spikes: Aufdeckung von unterschwelligen Backdoor-Angriffen in spiking neural networks mit neuromorpher Daten
Abstract

Tief neuronale Netze (DNNs) haben eine bemerkenswerte Leistung in verschiedenen Aufgaben gezeigt, darunter Bild- und Spracherkennung. Um die Effektivität von DNNs jedoch maximal auszuschöpfen, ist eine sorgfältige Optimierung zahlreicher Hyperparameter und Netzwerkparameter während des Trainings erforderlich. Zudem erfordern hochleistungsfähige DNNs eine große Anzahl an Parametern, was während des Trainings erhebliche Energieverbrauch verursacht. Um diesen Herausforderungen zu begegnen, haben Forscher sich zunehmend auf spiking neural networks (SNNs) konzentriert, die eine verbesserte Energieeffizienz und biologisch plausiblen Datenverarbeitungsprozess bieten und somit besonders gut für Sensordatenanwendungen, insbesondere in der neuromorphen Datenverarbeitung, geeignet sind. Trotz ihrer Vorteile sind SNNs wie DNNs anfällig für verschiedene Bedrohungen, darunter adversarielle Beispiele und Backdoor-Angriffe. Die Forschung zu SNNs steht jedoch noch am Anfang, was die Verständnis und Abwehr dieser Angriffe betrifft.In diesem Artikel untersuchen wir Backdoor-Angriffe auf SNNs unter Verwendung neuromorpher Datensätze und verschiedener Auslöser. Insbesondere analysieren wir Backdoor-Auslöser innerhalb neuromorpher Daten, die ihre Position und Farbe manipulieren können, wodurch ein weitaus größeres Spektrum an Möglichkeiten eröffnet wird als bei herkömmlichen Auslösern in Bereichen wie der Bildverarbeitung. Wir präsentieren verschiedene Angriffsstrategien, die eine Angriffs-Erfolgsrate von bis zu 100 % erreichen, während die Genauigkeit bei sauberen Daten nahezu unbeeinflusst bleibt. Zudem bewerten wir die Unauffälligkeit dieser Angriffe und zeigen, dass unsere wirksamsten Angriffe über eine erhebliche Unauffälligkeit verfügen. Schließlich adaptieren wir mehrere aktuelle state-of-the-art-Abwehrmechanismen aus dem Bereich der Bildverarbeitung und evaluieren deren Wirksamkeit auf neuromorphen Daten, wobei wir Fälle identifizieren, in denen diese Abwehrstrategien versagen und zu einer beeinträchtigten Leistung führen.

Sneaky Spikes: Aufdeckung von unterschwelligen Backdoor-Angriffen in spiking neural networks mit neuromorpher Daten | Neueste Forschungsarbeiten | HyperAI