분산 이전 의 왜 약한 것으로 간주됩니까?


21

배경

분산에서 가장 일반적으로 사용되는 약점 중 하나는 매개 변수가 역 감마입니다 (Gelman 2006) .α=0.001,β=0.001

그러나이 분포의 90 % CI는 약 입니다.[×1019,]

library(pscl)
sapply(c(0.05, 0.95), function(x) qigamma(x, 0.001, 0.001))

[1] 3.362941e+19          Inf

이로부터 는 분산이 매우 높을 확률이 낮고 분산이 1보다 작을 확률이 매우 낮다 는 것을 해석합니다 입니다.P ( σ < 1 | α = 0.001 , β = 0.001 ) = 0.006나는(0.001,0.001)(σ<1|α=0.001,β=0.001)=0.006

pigamma(1, 0.001, 0.001)
[1] 0.006312353

의문

뭔가 빠졌습니까? 아니면 실제로 유익한 정보입니까?

명확히하기 위해 업데이트 , 내가이 '정보'를 고려한 이유는 그것이 분산이 거대하고 측정 된 거의 모든 분산의 규모를 훨씬 능가한다고 주장하기 때문입니다.

후속 조치 는 다수의 분산 추정치에 대한 메타 분석이보다 합리적인 사전을 제공합니까?


참고

Gelman 2006. 계층 적 모델에서 분산 모수에 대한 사전 분포 . 베이지안 분석 1 (3) : 515–533


1
"참"비 정보 적 선행은 배포가 아닙니다. 따라서 P (sigma <1)와 같은 사전 확률은 없습니다.
Stéphane Laurent

답변:


38

역 감마 분포를 사용하면 다음과 같은 이점이 있습니다.

(σ2|α,β)(σ2)α1특급(βσ2)

및 이면 역 감마가 Jeffreys에 근접 한다는 것을 쉽게 알 수 있습니다 . 이 분포는 이전에 Jeffreys에 대한 적절한 근사치이므로 "비 정보"라고합니다.α 0β0α0

(σ2)1σ2

스케일 파라미터에 대한 정보가없는 것은 예를 들어 여기 18 페이지를 참조하십시오. 이전의 스케일은 스케일 변경에 따라 변하지 않는 유일한 것이므로 (근사값은 변하지 않습니다). 이것의 부정적분 갖는다 의 범위의 경우, 부적절한 것을 보여준다 중 포함 또는 . 그러나 이러한 경우는 실제 문제가 아닌 수학 문제 일뿐입니다. 실제로는 분산에 대해 무한 값을 관찰하지 않으며 관측 된 분산이 0이면 완벽한 데이터를 갖습니다!. 하한을 하고 상한을 하면 분포가 적절합니다.σ 2 0 L > 0 U < 로그(σ2)σ20>0<

이것이 큰 정보에 대한 작은 차이를 선호한다는 점에서 "정보가없는"것이 이상하게 보일 수 있지만, 이것은 단지 한 가지 규모에 불과합니다. 균일하지 않은 분포가 있음을 보여줄 수 있습니다 . 따라서이 이전에는 다른 어떤 규모보다 선호하지 않습니다로그(σ2)

귀하의 질문과 직접 ​​관련이 없지만 및 대신 Jeffreys 이전 의 상한 및 하한 및 를 선택하여 "더 나은"비 정보 분포를 제안합니다 . 일반적으로 한계는 실제 세계에서 실제로 의미에 대해 약간의 생각으로 쉽게 설정할 수 있습니다 . 어떤 종류의 물리량에서 오류가 발생한 경우 은 원자의 크기보다 작거나 실험에서 관찰 할 수있는 가장 작은 크기 일 수 없습니다. 더U α β σ 2 L U q ( b ) ~ U n i f o r m ( log ( L ) , log ( U ) ) σ 2 ( b ) = exp ( q ( b ) )αβσ2지구보다 더 클 수 없었습니다 (또는 정말로 보수적이기를 원한다면 태양). 이 방법으로 불변 속성을 유지하고 샘플보다 쉽게 ​​샘플을 추출 할 수 있습니다 : , 시뮬레이션 된 값 뿐만 .()나는에프영형아르 자형(로그(),로그())σ()2=특급(())


5
+1은 질문에 답변 할뿐만 아니라 유용한 조언을 제공합니다.
whuber

영형(σ)

이자형에이2(1,1)에프1,1이자형에이2(0,0)
chanceislogic

1
[0,]σ이자형엑스((영형(),영형())σ(,)
David LeBauer

(0,)α=1,β=1/2

10

거의 평평합니다. 그것의 중앙값은 1.9 E298이며, 배정 밀도 부동 산술에서 나타낼 수있는 최대 숫자입니다. 지적했듯이 실제로 크지 않은 간격에 할당 할 확률은 실제로 작습니다. 그보다 정보를 얻는 것이 어렵습니다!


설명해 주셔서 감사합니다. 나는 수렴 문제에 부딪 쳤고 내가 가지고있는 많은 변수가 1000보다 작고 (즉, 무언가가> 1000g이면 kg 단위로 측정 됨) 차이가 거의 동일한 순서에 있다는 것에 놀랐습니다. 크기. 따라서 가치에 대한 사전 지식이 없거나 분할 방법에 대해 잘 모르 더라도이 정보를 통합하는 더 많은 사전 정보가 필요하다는 것을 알고 있습니다.
David LeBauer

모델에 따라, 당신의 후방이 이전에 사용 부적절한에 매우 가까이있을 수 있습니다
JMS
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.