HyperAIHyperAI

Command Palette

Search for a command to run...

Erklärung und Nutzung von feindlichen Beispielen

Ian J. Goodfellow; Jonathon Shlens; Christian Szegedy

Zusammenfassung

Mehrere maschinelles Lernmodelle, darunter neuronale Netze, klassifizieren feindliche Beispiele (adversarial examples) stets falsch – Eingaben, die durch Anwendung kleiner, aber absichtlich schlimmsterfalls gestörter Veränderungen an Beispielen aus dem Datensatz gebildet werden, sodass die gestörte Eingabe das Modell dazu veranlasst, mit hoher Zuversicht eine falsche Antwort zu liefern. Frühe Versuche, dieses Phänomen zu erklären, konzentrierten sich auf Nichtlinearität und Überanpassung (Overfitting). Wir argumentieren jedoch, dass die Hauptursache für die Anfälligkeit von neuronalen Netzen gegenüber feindlichen Störungen (adversarial perturbations) ihre lineare Natur ist. Diese Erklärung wird durch neue quantitative Ergebnisse gestützt und liefert gleichzeitig die erste Erklärung des faszinierendsten Fakts über sie: ihrer Generalisierungsfähigkeit über verschiedene Architekturen und Trainingsdatensätze hinweg. Darüber hinaus führt dieser Ansatz zu einer einfachen und schnellen Methode zur Generierung von feindlichen Beispielen. Durch die Bereitstellung solcher Beispiele für feindliches Training (adversarial training) können wir den Testfehler eines Maxout-Netzes auf dem MNIST-Datensatz reduzieren.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp