HyperAI

Beispiel Für Einen Kontroversen Ansatz

Adversarial-Beispiele beziehen sich auf Eingaben in ein neuronales Netzwerk, die dazu führen, dass das Netzwerk falsche Ergebnisse ausgibt.

Die Eingangsproben werden durch das absichtliche Hinzufügen leichter Störungen in den Datensatz gebildet. Der gestörte Input führt dazu, dass das Modell mit hoher Sicherheit falsche Ergebnisse liefert. Die Eingabestichproben werden als gegnerische Stichproben bezeichnet. Dieses Verhalten wird normalerweise als feindlicher Angriff auf das neuronale Netzwerkmodell angesehen.

Es wurde erstmals von Christian Szegedy et al. vorgeschlagen. in ihrem ICLR2014-Papier.