HyperAIHyperAI

Command Palette

Search for a command to run...

Mixup: Jenseits der empirischen Risikominimierung

Hongyi Zhang; Moustapha Cisse; Yann N. Dauphin; David Lopez-Paz

Zusammenfassung

Große tiefe Neuronale Netze sind leistungsfähig, zeigen aber unerwünschtes Verhalten wie Memorierung und Anfälligkeit für feindliche Beispiele (adversarial examples). In dieser Arbeit schlagen wir Mixup vor, ein einfaches Lernprinzip, um diese Probleme zu lindern. Im Wesentlichen trainiert Mixup ein neuronales Netz auf konvexen Kombinationen von Paaren von Beispielen und deren Labels. Auf diese Weise regularisiert Mixup das neuronale Netz, sodass es zwischen den Trainingsbeispielen einfaches lineares Verhalten bevorzugt. Unsere Experimente mit den Datensätzen ImageNet-2012, CIFAR-10, CIFAR-100, Google Commands und UCI zeigen, dass Mixup die Generalisierung der aktuellen besten neuronalen Netzarchitekturen verbessert. Wir stellen außerdem fest, dass Mixup die Memorierung von fehlerhaften Labels reduziert, die Robustheit gegenüber feindlichen Beispielen erhöht und die Trainierung von generativen feindlichen Netzen (generative adversarial networks) stabilisiert.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp