«mcmc» 태그된 질문

Markov Chain Monte Carlo (MCMC)는 정지 분포가 목표 분포 인 Markov Chain에서 난수를 생성하여 목표 분포에서 샘플을 생성하는 방법 클래스를 말합니다. MCMC 방법은 일반적으로 난수 생성을위한보다 직접적인 방법 (예 : 반전 방법)을 사용할 수 없을 때 사용됩니다. 첫 번째 MCMC 방법은 Metropolis 알고리즘으로 나중에 Metropolis-Hastings 알고리즘으로 수정되었습니다.


1
Metropolis Hastings, Gibbs, Importance 및 Rejection 샘플링의 차이점은 무엇입니까?
저는 MCMC 방법을 배우려고 노력했으며 Metropolis Hastings, Gibbs, Importance 및 Rejection 샘플링을 경험했습니다. 이러한 차이점 중 일부는 명백하지만, 즉 전체 조건이있을 때 Gibbs가 Metropolis Hastings의 특별한 사례 인 반면 Gibbs 샘플러 내에서 MH를 사용하려는 경우와 같이 다른 것은 명확하지 않습니다. 각각의 차이점을 볼 수있는 간단한 방법은 무엇입니까? 감사!

1
변이 추론 대 MCMC : 언제 다른 것을 선택할 것인가?
나는 Gibbs 샘플링, Metropolis Hastings 등과 같은 다양한 MCMC의 풍미를 포함하여 VI와 MCMC에 대한 일반적인 아이디어를 얻는다고 생각 합니다 . 이 논문은 두 가지 방법에 대한 훌륭한 설명을 제공합니다. 다음과 같은 질문이 있습니다. 베이지안 추론을하려면 왜 다른 방법을 선택해야합니까? 각 방법의 장단점은 무엇입니까? 나는 이것이 매우 광범위한 질문이라는 것을 이해하지만 …

3
로지스틱 회귀 95 % 신뢰 구간을 수동으로 계산하는 것과 R에서 confint () 함수를 사용하는 것 사이에 차이가있는 이유는 무엇입니까?
사랑하는 여러분, 제가 설명 할 수없는 이상한 것을 발견했습니다. 요약 : 로지스틱 회귀 모델에서 신뢰 구간을 계산하는 수동 방법과 R 함수 confint()는 다른 결과를 제공합니다. Hosmer & Lemeshow의 Applied Logistic Regression (2 판)을 진행했습니다. 세 번째 장에는 승산 비와 95 % 신뢰 구간을 계산하는 예가 있습니다. R을 사용하면 모델을 쉽게 …
34 r  regression  logistic  confidence-interval  profile-likelihood  correlation  mcmc  error  mixture  measurement  data-augmentation  r  logistic  goodness-of-fit  r  time-series  exponential  descriptive-statistics  average  expected-value  data-visualization  anova  teaching  hypothesis-testing  multivariate-analysis  r  r  mixed-model  clustering  categorical-data  unsupervised-learning  r  logistic  anova  binomial  estimation  variance  expected-value  r  r  anova  mixed-model  multiple-comparisons  repeated-measures  project-management  r  poisson-distribution  control-chart  project-management  regression  residuals  r  distributions  data-visualization  r  unbiased-estimator  kurtosis  expected-value  regression  spss  meta-analysis  r  censoring  regression  classification  data-mining  mixture 

3
MCMC 알고리즘의 오류 예
Markov chain Monte Carlo 방법의 자동 확인 방법을 조사 중이며 이러한 알고리즘을 구성하거나 구현할 때 발생할 수있는 실수의 예를 원합니다. 출판 된 논문에 잘못된 방법을 사용한 경우 보너스 포인트. 다른 유형의 오류 (예 : 인체 공학적 체인이 아닌)도 관심이 있지만 오류가 체인에 부정확 한 분포가 있음을 의미하는 경우에 특히 관심이 …
28 mcmc 



1
MCMC 표본의 한계 우도 계산
이것은 되풀이되는 질문이지만 ( 이 게시물 , 이 게시물 및 이 게시물 참조 ) 다른 스핀이 있습니다. 일반 MCMC 샘플러의 많은 샘플이 있다고 가정합니다. 각 표본 대해 θθ\theta, 로그 우도 logf(x|θ)log⁡f(x|θ)\log f(\textbf{x} | \theta) 와 로그 우선 의 값을 알고 logf(θ)log⁡f(θ)\log f(\theta)있습니다. 도움이된다면 데이터 포인트 당 로그 우도 값 도 …

1
해밀턴 몬테카를로 vs. 순차 몬테카를로
이 두 가지 MCMC 체계의 다른 응용 분야뿐만 아니라 상대적인 장점과 단점을 느끼려고합니다. 언제 그리고 왜 사용합니까? 하나는 실패하지만 다른 하나는 실패 할 수있는 경우 (예 : HMC는 적용 가능하지만 SMC는 적용되지 않는 위치 및 그 반대) 하나는, 부여 아주 순진, (즉, 일반적으로 하나이며 다른에 비해 하나의 방법에 유틸리티의 측정을 …

4
통계 컴퓨팅을위한 C ++ 라이브러리
C / C ++로 이식하려는 특정 MCMC 알고리즘이 있습니다. 비싼 계산의 많은 부분이 이미 Cython을 통해 C로 이루어졌지만 전체 샘플러를 컴파일 된 언어로 작성하여 Python / R / Matlab / 무엇이든 래퍼를 작성할 수 있기를 원합니다. 주위를 파고 난 후 C ++에 기대어 있습니다. 내가 아는 관련 라이브러리는 Armadillo (http://arma.sourceforge.net/)와 …
23 mcmc  software  c++  computing 

4
머신 러닝 또는 딥 러닝 알고리즘을 사용하여 MCMC 기술의 샘플링 프로세스를 "향상"할 수 있습니까?
MCMC (Markov chain Monte Carlo) 방법에 대한 약간의 지식을 바탕으로 샘플링이 앞에서 언급 한 기술의 중요한 부분임을 이해합니다. 가장 일반적으로 사용되는 샘플링 방법은 Hamiltonian과 Metropolis입니다. 보다 효율적인 MCMC 샘플러를 구성하기 위해 머신 러닝 또는 딥 러닝을 활용할 수있는 방법이 있습니까?

1
사람들이 베이지안 추론에 사용하는 교재 MCMC 알고리즘에 비해 잘 알려진 개선 사항은 무엇입니까?
일부 문제에 대해 Monte Carlo 시뮬레이션을 코딩 할 때 모델이 충분히 단순 할 때 매우 기본적인 교과서 Gibbs 샘플링을 사용합니다. Gibbs 샘플링을 사용할 수없는 경우 몇 년 전에 배운 교과서 Metropolis-Hastings를 코딩합니다. 내가 그것에 대한 유일한 생각은 점프 분포 또는 매개 변수를 선택하는 것입니다. 교과서 옵션보다 수백, 수백 가지의 특수한 …

1
MCMC 기반 회귀 모델의 잔차 진단
최근에 MCMC 알고리즘 (실제로 R의 MCMCglmm 함수)을 사용하여 베이지안 프레임 워크에서 회귀 혼합 모델을 피팅하는 데 착수했습니다. 나는 추정 과정의 수렴을 진단하는 방법을 이해했다고 생각합니다 (추적, geweke 플롯, 자기 상관, 사후 분포 ...). 베이지안 프레임 워크에서 저를 놀라게하는 것 중 하나는 이러한 진단을 수행하기 위해 많은 노력을 기울이고있는 반면, 적합 …

3
왜 MCMC 체인의 빠른 혼합에 관심을 가져야합니까?
Markov 체인 Monte Carlo와 협력하여 추론을 도출 할 때, 우리는 빠르게 혼합되는 체인이 필요합니다. 즉, 사후 분포의지지를 통해 빠르게 움직입니다. 그러나 나는 우리가 왜이 속성이 필요한지 이해하지 못합니다. 왜냐하면 내가 이해 한 것으로부터 받아 들여진 후보 추첨은 사후 분포의 고밀도 부분에 집중해야하고 집중해야하기 때문입니다. 내가 이해하는 것이 사실이라면, 체인이 지지대 …
21 mcmc 

1
적응 형 MCMC를 신뢰할 수 있습니까?
적응 형 MCMC 에 대해 읽고 있습니다 (예 : Markov Chain Monte Carlo 핸드북 4 장 , Brooks et al., 2011 및 Andrieu & Thoms, 2008 참조 ). nnnp(n)p(n)p(n)limn→∞p(n)=0limn→∞p(n)=0\lim_{n \rightarrow \infty} p(n) = 0 이 결과는 직관적이며 무증상입니다. 적응의 양은 0이되는 경향이 있기 때문에 결국 에르고 디 시티를 망칠 수 …

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.