Jeffreys와 달리 이전 버전의 예는 변하지 않는 후부로 이어집니다.


17

2 주 전에 여기에했던 질문에 대한 "답변"을 다시 게시하고 있습니다. 왜 Jeffreys가 이전에 유용합니까? 그것은 실제로 질문이었습니다 (그리고 당시에 의견을 게시 할 권리도 없었습니다). 그래서 나는 이것을 할 수 있기를 바랍니다.

위의 링크에서 Jeffreys의 흥미로운 특징은 모델을 다시 매개 변수화 할 때 결과로 발생하는 후방 분포가 변형에 의해 부과 된 제한 사항을 따르는 후방 확률을 제공한다는 것입니다. 거기에서 논의한 것처럼 Beta-Bernoulli 예제 의 성공 확률 θ 에서 승산 이동할 때 , 후방이 만족시키는 경우가되어야합니다. 입니다.ψ=θ/(1θ)P(1/3θ2/3X=x)=P(1/2ψ2X=x)

나는 를 승산 로 변환하기 전에 Jeffreys의 불변에 대한 수치 적 예를 만들고 싶었고 , 더 흥미롭게도 다른 이전의 부족 (예 : Haldane, 균일 또는 임의의 것)이 부족했습니다.θψ

성공 확률의 후부가 베타 인 경우 (제프리뿐만 아니라 이전의 모든 베타의 경우) 확률의 후부 는 동일한 매개 변수를 가진 두 번째 종류 (위키 백과 참조)의 베타 분포를 따릅니다 . 아래의 수치 예에서 강조 그런 다음, 너무 불변이 있음을 (적어도 나에게) 놀라운 일이 아니다 이전에 베타의 선택을위한 (함께 놀러 alpha0_Ubeta0_U)뿐만 아니라 제프리스, 참조 프로그램의 출력

library(GB2) 
# has the Beta density of the 2nd kind, the distribution of theta/(1-theta) if theta~Beta(alpha,beta)

theta_1 = 2/3 # a numerical example as in the above post
theta_2 = 1/3

odds_1 = theta_1/(1-theta_1) # the corresponding odds
odds_2 = theta_2/(1-theta_2)

n = 10 # some data
k = 4

alpha0_J = 1/2 # Jeffreys prior for the Beta-Bernoulli case
beta0_J = 1/2
alpha1_J = alpha0_J + k # the corresponding parameters of the posterior
beta1_J = beta0_J + n - k

alpha0_U = 0 # some other prior
beta0_U = 0
alpha1_U = alpha0_U + k # resulting posterior parameters for the other prior
beta1_U = beta0_U + n - k

# posterior probability that theta is between theta_1 and theta_2:
pbeta(theta_1,alpha1_J,beta1_J) - pbeta(theta_2,alpha1_J,beta1_J) 
# the same for the corresponding odds, based on the beta distribution of the second kind
pgb2(odds_1, 1, 1,alpha1_J,beta1_J) - pgb2(odds_2, 1, 1,alpha1_J,beta1_J) 

# same for the other prior and resulting posterior
pbeta(theta_1,alpha1_U,beta1_U) - pbeta(theta_2,alpha1_U,beta1_U)
pgb2(odds_1, 1, 1,alpha1_U,beta1_U) - pgb2(odds_2, 1, 1,alpha1_U,beta1_U)

이것은 다음과 같은 질문으로 이어집니다.

  1. 내가 실수를합니까?
  2. 그렇지 않다면, 켤레 패밀리에 불변성이없는 것과 같은 결과가 있습니까? (빠른 검사는 예를 들어 정상적인 정상 사례에서 불변성을 생성 할 수 없다는 것을 의심하게 만듭니다.)
  3. 우리 불변성이 부족한 (바람직하게 간단한) 예를 알고 있습니까?

1
불일치의 가능성이기 때문에 불변성을 확인하기 위해 R 코드 (R 버전 3.0.2로 실행할 수 없음)가 필요하지 않습니다. 사전 불균형은 샘플링 모델의 매개 변수 선택에 의존하지 않는 사전 선택 규칙을 구성하는 것입니다.
시안

1
불편을 드려 죄송합니다. 내 컴퓨터에서 R 3.1.2로 실행됩니다. 내가 후속 조치를 취할 수 있다면 귀하의 의견은 Stephane Laurent의 수락 된 답변 항목 1에 대한 Zen의 의견을 잘못 이해했음을 암시 합니까? ?
Christoph Hanck

답변:


19

귀하의 계산은 우리가 특정 사전 분포 가질 때 다음 두 절차를 확인하는 것으로 보입니다.p(θ)

  1. 사후 pθD(θD)
  2. 수득 다른 파라미터 화에 상기 후방 변형 pψD(ψD)

  1. 이전 를 다른 매개 변수로 변환하여 p ψ ( ψ ) 를 구합니다.pθ(θ)pψ(ψ)
  2. 이전 를 사용하여 사후 p ψ D ( ψ D )를 계산합니다pψ(ψ)pψD(ψD)

의 동일한 후부로 이어 집니다. 이것은 실제로 항상 발생합니다 (캐비티 : 변형이 ψ 에 대한 분포에 의해 θ에 의해 결정되는 한 변형 ).ψψθ

그러나 이것은 문제의 불일치가 아닙니다. 대신, 문제는 우리가 사전 결정을위한 특정한 방법이있을 때 다음 두 가지 절차가 있는지 여부입니다.

  1. 를 결정하기 위해 사전 결정 방법을 사용하십시오pθ(θ)
  2. 분포를 로 변환pψ(ψ)

  1. 를 결정하기위한 사전 결정 방법을 사용pψ(ψ)

ψ

θ[0,1]ψ[0,)

θψψ


1

데이터에 의해 유발 된 가능성이 매개 변수화에 영향을받지 않는지 확인하는 것으로 보입니다. 이는 매개 변수화와 관련이 없습니다.

사전 선택 방식이 예를 들어 "일관된 사전 선택"인 경우, 한 매개 변수에서 균일 한 것 (예 : Beta (즉, Beta (1,1))이 다른 매개 변수에서는 균일하지 않습니다 (예 : BetaPrime (1,1)). ) (비뚤어 짐) — 그러한 것이 존재하는 경우 BetaPrime (1, -1)은 균일합니다.

Jeffreys 이전은 매개 변수화에서 변하지 않는 유일한 "사전 선택 방법"입니다. 따라서 이전의 다른 방법을 선택하는 것보다 덜 가정적입니다.


나는 Jeffreys 이전의 유일한 것이 변하지 않는 이전 의 것이라고 생각하지 않습니다 . 서로 다른 경우, 왼쪽 및 오른쪽 Haar 측정 값은 모두 변하지 않습니다.
시안

@ Nil G, 나는 단지 가능성을 보겠다는 당신의 추론을 따를 수 있는지 확실하지 않습니다. (예) 연결시 alpha1_Jpbeta그리고 pgb2이 파라미터는 이전 파라미터 (양에 의해 결정된다 alpha1_J), 데이터 ( k이와 다른 모든 매개 변수).
Christoph Hanck

1
(+1) 당신은 주관적인 선행의 유혹이 매개 변수화되지 않기를 바랍니다.
Scortchi-Monica Monica 복원

1
@ 젠 : 네, 정말 너무 성급한 : Haar 측정은 잘못된 예입니다. 아직도, 나는 왜 Jeffreys '가 유일한 변하지 않는 이전에 궁금하다 .
Xi'an

2
@ Xi'an : 내 기억이 실패하지 않으면 Cencov 책에 정리가 있습니다 ( amazon.com/… ). 어떤 의미에서 (?), Jeffreys 이전의 도시에서 유일한 사람임을 증명합니다. 필요한 불변. 그의 증거는 내게 접근 할 수 없다. 그것은 범주 이론의 언어, 펑터, 형태 및 그 모든 것을 사용합니다. en.wikipedia.org/wiki/Category_theory
Zen
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.