Ein integrierter Autoencoder-Block-Switching-Schutzansatz zur Verhinderung von adversarial attacks

Laut jüngsten Studien hat die Anfälligkeit modernster neuronaler Netze gegenüber adversarialen Eingabeproben erheblich zugenommen. Ein neuronales Netz ist ein intermediäres Verfahren oder eine Technik, mittels derer ein Computer mit Hilfe von Machine-Learning-Algorithmen lernt, Aufgaben zu erfüllen. Maschinelles Lernen und Künstliche Intelligenz haben sich zu einem grundlegenden Bestandteil des täglichen Lebens entwickelt, beispielsweise in selbstfahrenden Fahrzeugen [1] oder intelligenten Haushaltsgeräten. Jede Sicherheitslücke stellt daher eine erhebliche Gefahr dar. Schon minimale Abweichungen in den Eingabedaten können diese äußerst wörtlich interpretierenden Systeme täuschen und sowohl Benutzer als auch Administratoren in gefährliche Situationen bringen. In diesem Artikel wird ein Verteidigungsalgorithmus vorgeschlagen, der die Kombination aus einem Auto-Encoder [3] und einer Block-Switching-Architektur nutzt. Der Auto-Encoder soll jegliche Störungen in den Eingabebildern entfernen, während die Block-Switching-Methode die Robustheit gegenüber White-Box-Angriffen erhöhen soll. Die Angriffe werden mittels des FGSM-Modells [9] geplant, während die darauf folgende Gegenmaßnahme durch die vorgeschlagene Architektur erfolgt und somit die Machbarkeit sowie die Sicherheit des Algorithmus demonstriert.