베이지안 모델 선택의 Jeffreys-Lindley 역설에 대해 언제 걱정해야합니까?


12

RJMCMC를 사용하여 탐색하는 다양한 복잡성 모델의 넓은 (그러나 유한 한) 공간을 고려하고 있습니다. 각 모델의 매개 변수 벡터에 대한 사전 정보는 상당히 유익합니다.

  1. 더 복잡한 모델 중 하나가 더 적합 할 때 간단한 모델을 선호하는 Jeffreys-Lindley 역설 에 대해 어떤 경우에 걱정해야 합니까?

  2. 베이지안 모델 선택에서 역설의 문제를 강조하는 간단한 예가 있습니까?

나는 Xi'an의 블로그Andrew Gelman의 블로그 와 같은 몇 가지 기사를 읽었 지만 여전히 문제를 이해하지 못합니다.


1
질문이 너무 많아서 여기에 효과적으로 대답하기에는 너무 뚜렷합니다.
jaradniemi

피드백 @jaradniemi에게 감사합니다. "후속 모델 확률을 효과적으로 반환하는 RJMCMC 절차가 DIC와 동일한 모델을 선호해야합니까?"라는 질문을 제거했습니다.
Jeff

답변:


5

내 블로그 에 불분명해서 죄송합니다 !

참고 : 나는 크로스에 대한 다른 답변 에서 베이지안 모델 선택과 Jeffreys-Lindley 역설에 대한 배경 지식을 제공했습니다 .

Jeffreys-Lindley 역설은 한계 우도 에서 베이지안 모델 선택과 관련이 있습니다.

m(x)=π(θ)f(x|θ)dθ
πσπcπc

xN(0,1)
xN(θ,1)
B12=exp{n(x¯n)2/2}+exp{n(x¯nθ)2/2}π(θ)dθ
πN(0,τ2)θτx¯nnτn
π(θ)=c
cB12
B12=exp{n(x¯n)2/2}c+exp{n(x¯nθ)2/2}dθ=exp{n(x¯n)2/2}c2π/n
c

지금, 당신의 선행이 유익하고 (따라서 적절하다면) Jeffreys-Lindley 역설이 일어날 이유가 없습니다. 충분한 수의 관측 값으로 Bayes 계수는 데이터를 생성 한 모델을 일관되게 선택합니다. (또는보다 정확하게는 모델 선택 내에서 데이터를 생성 한 "진정한"모델에 가장 가까운 모델 선택을 고려한 모델 모음 내의 모델입니다.)


2
시안에 대한 자세한 답변을 주셔서 감사합니다. 귀하의 블로그는 매우 명확합니다 (나는 많은 것을 배웠습니다) 나는이 특정 문제를 이해하는 데 조금 느 렸습니다!
Jeff

사실, 내 블로그는 배경과 전제 조건에 대해 매우 다양한 가정으로 작동하므로 때때로 많은 독자들에게 분명하지 않습니다!
시안
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.