HyperAIHyperAI

Command Palette

Search for a command to run...

PuVAE: Ein variationeller Autoencoder zur Reinigung feindseliger Beispiele

Uiwon Hwang; Jaewoo Park; Hyemi Jang; Sungroh Yoon; Nam Ik Cho

Zusammenfassung

Tiefe neuronale Netze werden weit verbreitet eingesetzt und zeigen in vielen Bereichen ausgezeichnete Leistungen. Sie sind jedoch anfällig für feindselige Angriffe, die das Netzwerk während der Inferenz durch sorgfältig gestaltete Störungen an den Eingangsdaten gefährden. Obwohl mehrere Verteidigungsstrategien vorgeschlagen wurden, um spezifische Angriffe abzuwehren, können andere Angriffsmethoden diese Schutzmechanismen umgehen. Daher schlagen wir den Purifying Variational Autoencoder (PuVAE) vor, eine Methode zur Reinigung von feindseligen Beispielen. Das vorgeschlagene Verfahren eliminiert eine feindselige Störung, indem es ein feindseliges Beispiel auf die Mannigfaltigkeit jeder Klasse projiziert und die nächstgelegene Projektion als gereinigtes Beispiel bestimmt. Wir veranschaulichen experimentell die Robustheit des PuVAE gegen verschiedene Angriffsmethoden ohne irgendein Vorwissen. In unseren Experimenten zeigt das vorgeschlagene Verfahren Leistungen, die mit denen der besten bisher bekannten Verteidigungsverfahren konkurrieren können, und die Inferenzzeit ist etwa 130-mal schneller als bei dem Defense-GAN, einem der besten bisher bekannten Reinigungsmodelle.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
PuVAE: Ein variationeller Autoencoder zur Reinigung feindseliger Beispiele | Paper | HyperAI