HyperAIHyperAI

Command Palette

Search for a command to run...

Un contrôle de réalité pour les optimiseurs à grand lot : des optimiseurs traditionnels et génériques suffisent pour toutes les tailles de lot

Zachary Nado Justin M. Gilmer Christopher J. Shallue Rohan Anil George E. Dahl

Résumé

Récemment, les algorithmes d'optimisation LARS et LAMB ont été proposés pour accélérer l'entraînement des réseaux de neurones en utilisant des tailles de lot élevées. LARS et LAMB introduisent une normalisation par couche dans les règles de mise à jour des méthodes à momentum de Heavy-ball et d'Adam, respectivement, et sont devenus populaires dans des benchmarks emblématiques ainsi que dans des bibliothèques de deep learning. Toutefois, en l'absence de comparaisons équitables avec les algorithmes d'optimisation standards, il demeure une question ouverte quant à l'avantage réel de LARS et LAMB par rapport aux algorithmes traditionnels et génériques. Dans ce travail, nous démontrons que des algorithmes d'optimisation standards tels que le momentum de Nesterov et Adam peuvent atteindre ou dépasser les performances de LARS et LAMB lorsqu'on utilise de grandes tailles de lot. Nos résultats établissent de nouvelles références plus robustes pour les comparaisons futures à ces tailles de lot, tout en éclairant les difficultés inhérentes à la comparaison des algorithmes d'optimisation pour l'entraînement des réseaux de neurones en général.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp