Command Palette
Search for a command to run...
SAC Flow : Apprentissage par renforcement efficace en échantillons de politiques basées sur les flux par modélisation séquentielle réparamétrée par vitesse
Yixian Zhang Shu'ang Yu Tonghe Zhang Mo Guang Haojia Hui Kaiwen Long Yu Wang Chao Yu Wenbo Ding

Résumé
L’entraînement de politiques basées sur les flux expressives par apprentissage par renforcement hors politique est notoirement instable en raison de pathologies des gradients dans le processus d’échantillonnage d’actions multi-étapes. Nous attribuons cette instabilité à une connexion fondamentale : le déroulement du flux est algébriquement équivalent à un calcul récurrent résiduel, ce qui le rend sensible aux mêmes problèmes de disparition et d’explosion des gradients que les réseaux de neurones récurrents (RNN). Pour remédier à ce problème, nous réparamétrons le réseau de vitesse en nous inspirant des principes des modèles séquentiels modernes, en introduisant deux architectures stables : Flow-G, qui intègre une vitesse à portes (gated velocity), et Flow-T, qui utilise une vitesse décodée (decoded velocity). Nous développons ensuite un algorithme pratique basé sur SAC, rendu possible par un déroulement enrichi par du bruit, permettant une formation directe et end-to-end de ces politiques. Notre approche supporte à la fois l’apprentissage à partir de zéro et l’apprentissage offline-to-online, et atteint des performances de pointe sur des benchmarks de contrôle continu et de manipulation robotique, tout en éliminant la nécessité de recourir à des solutions de contournement courantes telles que la distillation de politique ou des objectifs substituts.
Construire l'IA avec l'IA
De l'idée au lancement — accélérez votre développement IA avec du co-codage IA gratuit, un environnement prêt à l'emploi et les meilleurs prix GPU.