Skalierbare Gradienten für stochastische Differentialgleichungen

Die adjungierte Sensitivitätsmethode ermöglicht eine skalierbare Berechnung von Gradienten von Lösungen gewöhnlicher Differentialgleichungen. Wir verallgemeinern diese Methode auf stochastische Differentialgleichungen, wodurch eine zeiteffiziente und speicheroptimierte Berechnung von Gradienten mit hochordnungsbasierten adaptiven Lösern möglich wird. Konkret leiten wir eine stochastische Differentialgleichung ab, deren Lösung den Gradienten darstellt, entwickeln einen speichereffizienten Algorithmus zur Caching von Rauschtermen und formulieren Bedingungen für die Konvergenz numerischer Lösungen. Darüber hinaus kombinieren wir unsere Methode mit gradientenbasiertem stochastischem Variationsinference für latente stochastische Differentialgleichungen. Anhand unseres Ansatzes passen wir stochastische Dynamiken an, die durch neuronale Netzwerke definiert sind, und erreichen dabei konkurrenzfähige Ergebnisse auf einem 50-dimensionalen Bewegungsaufzeichnungsdatensatz.