HyperAIHyperAI

Command Palette

Search for a command to run...

Natürliche feindliche Beispiele

Dan Hendrycks Kevin Zhao* Steven Basart* Jacob Steinhardt Dawn Song

Zusammenfassung

Wir stellen zwei herausfordernde Datensätze vor, die zu einem erheblichen Leistungsverlust von maschinellen Lernmodellen führen. Die Datensätze wurden mit einer einfachen adversären Filterungstechnik gesammelt, um Datensätze mit begrenzten störenden Hinweisen zu erstellen. Die realweltlichen, unveränderten Beispiele aus unseren Datensätzen übertragen sich verlässlich auf verschiedene unbekannte Modelle und zeigen so, dass Computer Vision-Modelle gemeinsame Schwächen haben. Der erste Datensatz wird ImageNet-A genannt und gleicht dem ImageNet-Testdatensatz, ist jedoch für bestehende Modelle viel anspruchsvoller. Wir haben außerdem einen adversären Out-of-Distribution-Erkennungsdatensatz namens ImageNet-O zusammengestellt, der der erste solche Datensatz ist, der für ImageNet-Modelle erstellt wurde. Bei ImageNet-A erreicht ein DenseNet-121 eine Genauigkeit von etwa 2 %, was einem Genauigkeitsverlust von rund 90 % entspricht, und seine Out-of-Distribution-Erkennungsleistung bei ImageNet-O liegt nahe bei den Zufallswerten. Wir stellen fest, dass existierende Datenverstärkungstechniken die Leistung kaum verbessern und die Verwendung anderer öffentlicher Trainingsdatensätze nur begrenzte Verbesserungen bietet. Allerdings finden wir heraus, dass Verbesserungen an den Architekturen der Computer Vision vielversprechend sind, um robuste Modelle zu entwickeln.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp