HyperAIHyperAI

Command Palette

Search for a command to run...

Auto-Encoding Variational Bayes Automatische Variations-Bayes-Kodierung

["name": "Diederik P. Kingma" "affiliation": "Machine Learning Group Universiteit van Amsterdam" "name": "Max Welling" "affiliation": "Machine Learning Group Universiteit van Amsterdam"]

Zusammenfassung

Wie können wir effiziente Inferenz und Lernen in gerichteten stochastischen Modellen durchführen, insbesondere wenn kontinuierliche latente Variablen mit nicht handhabbaren A-posteriori-Verteilungen und große Datensätze vorhanden sind? Wir stellen einen stochastischen variationsinferenz- und Lernalgorithmus vor, der auf große Datensätze skaliert und unter milden Differenzierbarkeitsbedingungen auch im nicht handhabbaren Fall funktioniert. Unsere Beiträge sind zweifach. Erstens zeigen wir, dass eine Reparameterisierung der variationsunteren Schranke einen Schätzer für die untere Schranke ergibt, der sich mithilfe standardisierter stochastischer Gradientenmethoden einfach optimieren lässt. Zweitens zeigen wir, dass für unabhängige und identisch verteilte (i.i.d.) Datensätze mit kontinuierlichen latenten Variablen pro Datenpunkt die posteriore Inferenz besonders effizient durchgeführt werden kann, indem man ein approximatives Inferenzmodell (auch als Erkennungsmodell bezeichnet) an das nicht handhabbare A-posteriori unter Verwendung des vorgeschlagenen Schätzers für die untere Schranke anpasst. Die theoretischen Vorteile spiegeln sich in den experimentellen Ergebnissen wider.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp