HyperAI

Markov-Ketten-Monte-Carlo-Methode MCMC

MCMC Es handelt sich um einen Algorithmus zur Stichprobenziehung aus einer Zufallsverteilung auf Grundlage einer Markow-Kette, der die Posterior-Verteilung des betreffenden Parameters durch Zufallsstichprobenziehung im Wahrscheinlichkeitsraum approximiert.

Die grundlegende Theorie von MCMC ist der Markow-Prozess. Um in verwandten Algorithmen eine Stichprobe auf einer bestimmten Verteilung zu erfassen, können wir diesen Prozess gemäß dem Markov-Prozess aus jedem Zustand simulieren und kontinuierlich Zustandsübergänge durchführen, bis er schließlich zu einer stabilen Verteilung konvergiert.

Die Grundidee besteht darin, die komplexe Verteilung durch eine stabile Verteilung zu ersetzen und diese zum Abtasten und Anpassen zu verwenden, um schließlich die Verteilung der komplexen Stichprobe zu erhalten.

Gängige MCMC-Methoden: Metropolis-Hastings-Sampling, Gibbs-Sampling

Metropolis-Hastings-Probenahme

1: Initialisieren Sie den Anfangszustand der Markov-Kette

2: Beispiel für den folgenden Prozess des -Zyklus

  • Zum Zeitpunkt ist der Zustand der Markov-Kette und die Stichprobenziehung
  • Stichprobenziehung aus einer Gleichverteilung
  • Wenn , d.h.
  • Andernfalls wird die Übertragung nicht akzeptiert, d. h.

Gibbs-Sampling

1: $latex zufällig initialisieren {X\mathop{{}}\nolimits_{{0}}\text{ }=\text{ }x\mathop{{}}\nolimits_{{0}},\text{ }Y\mathop{{}}\nolimits_{{0}}\text{ }=\text{ }y\mathop{{}}\nolimits_{{0}}}$

2: Zyklische Abtastung von

Verweise

【1】Erste Schritte mit MCMC

【2】Eine kurze Analyse der Markov-Ketten-Monte-Carlo-Methode