닫힌 형태로 계산할 수 없거나 사후 분포 와 같이 계산할 수없는 이전 및 가능성 가 제공되는 경우 는 표준 유형이 아니며,이 분포에서 사후 분포의 Monte Carlo 근사를 향해 직접 시뮬레이션하는 것은 불가능합니다. 일반적인 예는 BUGS 책 에서 볼 수있는 것과 같이 비 접합 사전이있는 계층 모델로 구성 됩니다.p(θ)f(x|θ)
p(θ|x)∝p(θ)f(x|θ)
이러한 수락 거부-같은 간접 시뮬레이션 방법, 비율-의 균일, 또는 중요성 샘플링 기술은 통상적으로 수치 및 정밀 어려움으로 실행할 때 매개 변수의 차원 몇 단위 이상으로 증가한다.θ
반대로, Markov 체인 Monte Carlo 방법은 지역 차원, 즉 현재 값의 근방 및 소수의 구성 요소, 즉 부분 공간에서 사후 분포를 탐색 할 수 있다는 점에서 큰 차원에 더 적합합니다. 예를 들어 Gibbs 샘플러 는 한 번에 1 차원 대상에서 시뮬레이션, 즉 와 관련된 전체 조건부 분포 가 장기적으로 실제 후부에서 시뮬레이션을 달성하기에 충분하다는 개념을 검증합니다.p(θ|x)
Markov chain Monte Carlo 방법은 Metropolis-Hastings 알고리즘과 같은 알고리즘 을 일정하게 계산할 수있는 모든 사후 분포 공식적으로 사용할 수 있다는 점에서 어느 정도 보편성입니다 .p(θ|x)
경우 쉽게 계산 될 수없는 대안이 존재 하나에서와 같이,보다 큰 공간을 통해 관리 분포에이 분포를 완료하여 또는 ABC 와 같은 비 Markovian 방법을 통해 .p(θ)f(x|θ)
p(θ)f(x|θ)∝∫g(z|θ,x)p(θ)f(x|θ)dz
MCMC 방법은 1990 년 Alan Gelfand와 Adrian Smith가이 방법을 대중화 한 이후의 상승에 의해 설명 된 것처럼 베이지안 방법에 대해 훨씬 더 넓은 범위를 제공했습니다.