2 주 전에 여기에했던 질문에 대한 "답변"을 다시 게시하고 있습니다. 왜 Jeffreys가 이전에 유용합니까? 그것은 실제로 질문이었습니다 (그리고 당시에 의견을 게시 할 권리도 없었습니다). 그래서 나는 이것을 할 수 있기를 바랍니다.
위의 링크에서 Jeffreys의 흥미로운 특징은 모델을 다시 매개 변수화 할 때 결과로 발생하는 후방 분포가 변형에 의해 부과 된 제한 사항을 따르는 후방 확률을 제공한다는 것입니다. 거기에서 논의한 것처럼 Beta-Bernoulli 예제 의 성공 확률 에서 승산 이동할 때 , 후방이 만족시키는 경우가되어야합니다. 입니다.
나는 를 승산 로 변환하기 전에 Jeffreys의 불변에 대한 수치 적 예를 만들고 싶었고 , 더 흥미롭게도 다른 이전의 부족 (예 : Haldane, 균일 또는 임의의 것)이 부족했습니다.
성공 확률의 후부가 베타 인 경우 (제프리뿐만 아니라 이전의 모든 베타의 경우) 확률의 후부 는 동일한 매개 변수를 가진 두 번째 종류 (위키 백과 참조)의 베타 분포를 따릅니다 . 아래의 수치 예에서 강조 그런 다음, 너무 불변이 있음을 (적어도 나에게) 놀라운 일이 아니다 이전에 베타의 선택을위한 (함께 놀러 alpha0_U
와 beta0_U
)뿐만 아니라 제프리스, 참조 프로그램의 출력
library(GB2)
# has the Beta density of the 2nd kind, the distribution of theta/(1-theta) if theta~Beta(alpha,beta)
theta_1 = 2/3 # a numerical example as in the above post
theta_2 = 1/3
odds_1 = theta_1/(1-theta_1) # the corresponding odds
odds_2 = theta_2/(1-theta_2)
n = 10 # some data
k = 4
alpha0_J = 1/2 # Jeffreys prior for the Beta-Bernoulli case
beta0_J = 1/2
alpha1_J = alpha0_J + k # the corresponding parameters of the posterior
beta1_J = beta0_J + n - k
alpha0_U = 0 # some other prior
beta0_U = 0
alpha1_U = alpha0_U + k # resulting posterior parameters for the other prior
beta1_U = beta0_U + n - k
# posterior probability that theta is between theta_1 and theta_2:
pbeta(theta_1,alpha1_J,beta1_J) - pbeta(theta_2,alpha1_J,beta1_J)
# the same for the corresponding odds, based on the beta distribution of the second kind
pgb2(odds_1, 1, 1,alpha1_J,beta1_J) - pgb2(odds_2, 1, 1,alpha1_J,beta1_J)
# same for the other prior and resulting posterior
pbeta(theta_1,alpha1_U,beta1_U) - pbeta(theta_2,alpha1_U,beta1_U)
pgb2(odds_1, 1, 1,alpha1_U,beta1_U) - pgb2(odds_2, 1, 1,alpha1_U,beta1_U)
이것은 다음과 같은 질문으로 이어집니다.
- 내가 실수를합니까?
- 그렇지 않다면, 켤레 패밀리에 불변성이없는 것과 같은 결과가 있습니까? (빠른 검사는 예를 들어 정상적인 정상 사례에서 불변성을 생성 할 수 없다는 것을 의심하게 만듭니다.)
- 우리 가 불변성이 부족한 (바람직하게 간단한) 예를 알고 있습니까?