HyperAIHyperAI

Command Palette

Search for a command to run...

Régularisation des réseaux adverses génératifs sous données limitées

Hung-Yu Tseng Lu Jiang Ce Liu Ming-Hsuan Yang Weilong Yang

Résumé

Les dernières années ont vu un progrès rapide des réseaux antagonistes génératifs (GANs). Toutefois, le succès des modèles GAN repose fortement sur une grande quantité de données d'entraînement. Ce travail propose une méthode de régularisation pour entraîner des modèles GAN robustes avec des données limitées. Nous montrons théoriquement un lien entre la perte régularisée et une divergence f appelée divergence de LeCam, que nous identifions comme étant plus robuste en présence de données d'entraînement restreintes. Des expériences étendues sur plusieurs jeux de données standard démontrent que la méthode de régularisation proposée : 1) améliore la performance de généralisation et stabilise la dynamique d'apprentissage des modèles GAN sous des conditions de données limitées, et 2) s'accommode efficacement des méthodes récentes d'augmentation de données. Ces propriétés permettent d'entraîner des modèles GAN atteignant des performances de pointe, même lorsque seules des quantités limitées de données du benchmark ImageNet sont disponibles.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp