HyperAIHyperAI

Command Palette

Search for a command to run...

Mixup : Au-delà de la minimisation du risque empirique

Hongyi Zhang; Moustapha Cisse; Yann N. Dauphin; David Lopez-Paz

Résumé

Les grands réseaux de neurones profonds sont puissants, mais ils présentent des comportements indésirables tels que la mémorisation et la sensibilité aux exemples adverses. Dans ce travail, nous proposons mixup, un principe d'apprentissage simple pour atténuer ces problèmes. En substance, mixup entraîne un réseau de neurones sur des combinaisons convexes de paires d'exemples et de leurs étiquettes. En procédant ainsi, mixup régularise le réseau de neurones pour favoriser un comportement linéaire simple entre les exemples d'entraînement. Nos expériences sur les ensembles de données ImageNet-2012, CIFAR-10, CIFAR-100, Google Commands et UCI montrent que mixup améliore la généralisation des architectures de réseaux de neurones les plus avancées actuellement. Nous constatons également que mixup réduit la mémorisation des étiquettes corrompues, augmente la robustesse face aux exemples adverses et stabilise l'entraînement des réseaux adverses génératifs (generative adversarial networks).


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp