HyperAIHyperAI

Command Palette

Search for a command to run...

Gradients évolutifs pour les équations différentielles stochastiques

Xuechen Li Ting-Kam Leonard Wong Ricky T. Q. Chen David Duvenaud

Résumé

La méthode de sensibilité adjointe permet de calculer de manière évolutive les gradients des solutions d’équations différentielles ordinaires. Nous généralisons cette méthode aux équations différentielles stochastiques, permettant ainsi un calcul efficace en temps et à mémoire constante des gradients, même avec des solveurs adaptatifs d’ordre élevé. Plus précisément, nous dérivons une équation différentielle stochastique dont la solution représente le gradient, proposons un algorithme efficace en mémoire pour le cache du bruit, et établissons les conditions de convergence des solutions numériques. En outre, nous combinons notre méthode avec une inférence variationnelle stochastique basée sur les gradients, appliquée aux équations différentielles stochastiques latentes. Nous utilisons cette approche pour ajuster des dynamiques stochastiques définies par des réseaux de neurones, obtenant des performances compétitives sur un jeu de données de capture de mouvement à 50 dimensions.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp