MCMC Es handelt sich um einen Algorithmus zur Stichprobenziehung aus einer Zufallsverteilung auf Grundlage einer Markow-Kette, der die Posterior-Verteilung des betreffenden Parameters durch Zufallsstichprobenziehung im Wahrscheinlichkeitsraum approximiert.
Die grundlegende Theorie von MCMC ist der Markow-Prozess. Um in verwandten Algorithmen eine Stichprobe auf einer bestimmten Verteilung zu erfassen, können wir diesen Prozess gemäß dem Markov-Prozess aus jedem Zustand simulieren und kontinuierlich Zustandsübergänge durchführen, bis er schließlich zu einer stabilen Verteilung konvergiert.
Die Grundidee besteht darin, die komplexe Verteilung durch eine stabile Verteilung zu ersetzen und diese zum Abtasten und Anpassen zu verwenden, um schließlich die Verteilung der komplexen Stichprobe zu erhalten.
Gängige MCMC-Methoden: Metropolis-Hastings-Sampling, Gibbs-Sampling
Metropolis-Hastings-Probenahme
1: Initialisieren Sie den Anfangszustand der Markov-Kette 
2: Beispiel für den folgenden Prozess des
-Zyklus
- Zum Zeitpunkt
ist der Zustand der Markov-Kette
und die Stichprobenziehung %20%7D%7D)
- Stichprobenziehung aus einer Gleichverteilung
- Wenn
, d.h. 
- Andernfalls wird die Übertragung nicht akzeptiert, d. h.

Gibbs-Sampling
1: $latex zufällig initialisieren {X\mathop{{}}\nolimits_{{0}}\text{ }=\text{ }x\mathop{{}}\nolimits_{{0}},\text{ }Y\mathop{{}}\nolimits_{{0}}\text{ }=\text{ }y\mathop{{}}\nolimits_{{0}}}$
2: Zyklische Abtastung von 
Verweise
【1】Erste Schritte mit MCMC
【2】Eine kurze Analyse der Markov-Ketten-Monte-Carlo-Methode