HyperAIHyperAI

Command Palette

Search for a command to run...

Skalierbare Gradienten für stochastische Differentialgleichungen

Xuechen Li Ting-Kam Leonard Wong Ricky T. Q. Chen David Duvenaud

Zusammenfassung

Die adjungierte Sensitivitätsmethode ermöglicht eine skalierbare Berechnung von Gradienten von Lösungen gewöhnlicher Differentialgleichungen. Wir verallgemeinern diese Methode auf stochastische Differentialgleichungen, wodurch eine zeiteffiziente und speicheroptimierte Berechnung von Gradienten mit hochordnungsbasierten adaptiven Lösern möglich wird. Konkret leiten wir eine stochastische Differentialgleichung ab, deren Lösung den Gradienten darstellt, entwickeln einen speichereffizienten Algorithmus zur Caching von Rauschtermen und formulieren Bedingungen für die Konvergenz numerischer Lösungen. Darüber hinaus kombinieren wir unsere Methode mit gradientenbasiertem stochastischem Variationsinference für latente stochastische Differentialgleichungen. Anhand unseres Ansatzes passen wir stochastische Dynamiken an, die durch neuronale Netzwerke definiert sind, und erreichen dabei konkurrenzfähige Ergebnisse auf einem 50-dimensionalen Bewegungsaufzeichnungsdatensatz.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp