HyperAIHyperAI

Command Palette

Search for a command to run...

Universelle adversäre Störungen mit generativen Modellen lernen

Jamie Hayes George Danezis

Zusammenfassung

Neuronale Netze sind bekannt für ihre Anfälligkeit gegenüber feindlichen Beispielen (adversarial examples), Eingaben, die absichtlich so verändert wurden, dass sie optisch dem ursprünglichen Eingang sehr ähnlich bleiben, jedoch eine Fehlklassifizierung verursachen. Kürzlich wurde gezeigt, dass bei einem bestimmten Datensatz und einem Klassifikator sogenannte universelle feindliche Störungen (universal adversarial perturbations) existieren, eine einzelne Störung, die bei jeder Eingabe zu einer Fehlklassifizierung führt. In dieser Arbeit stellen wir universelle feindliche Netze (universal adversarial networks) vor, ein generatives Netzwerk, das in der Lage ist, ein Zielklassifikator zu täuschen, wenn sein generiertes Ausgabe auf ein unverfälschtes Beispiel aus einem Datensatz hinzugefügt wird. Wir zeigen, dass diese Technik bekannten universellen feindlichen Angriffen überlegen ist.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Universelle adversäre Störungen mit generativen Modellen lernen | Paper | HyperAI