Gradients évolutifs pour les équations différentielles stochastiques

La méthode de sensibilité adjointe permet de calculer de manière évolutive les gradients des solutions d’équations différentielles ordinaires. Nous généralisons cette méthode aux équations différentielles stochastiques, permettant ainsi un calcul efficace en temps et à mémoire constante des gradients, même avec des solveurs adaptatifs d’ordre élevé. Plus précisément, nous dérivons une équation différentielle stochastique dont la solution représente le gradient, proposons un algorithme efficace en mémoire pour le cache du bruit, et établissons les conditions de convergence des solutions numériques. En outre, nous combinons notre méthode avec une inférence variationnelle stochastique basée sur les gradients, appliquée aux équations différentielles stochastiques latentes. Nous utilisons cette approche pour ajuster des dynamiques stochastiques définies par des réseaux de neurones, obtenant des performances compétitives sur un jeu de données de capture de mouvement à 50 dimensions.