Jeffreys Priors와 분산 안정화 변환의 관계는 무엇입니까?


17

나는 Wikipedia에서 Jeffreys에 대해 읽었습니다 : Jeffreys Prior 는 각 예제 후에 분산 안정화 변환이 Jeffreys를 이전에 균일하게 만드는 방법을 설명합니다.

예를 들어, Bernoulli 사례의 경우 확률이 γ[0,1] 인 동전의 경우 Bernoulli 시험 모델은 매개 변수에 대한 Jeffreys 이전의 결과를 나타냅니다 .γ

p(γ)1γ(1γ)

그런 다음 이것이 베타 배포판이라고 말합니다 . 또한 언급하는 경우 , 종래에 대한 다음 제프리스 간격에 균일 한 .α=β=12γ=sin2(θ)θ[0,π2]

변형을 분산 안정화 변환의 변형으로 인식합니다. 나를 혼란스럽게하는 것은 :

  1. 분산 안정화 변환이 왜 균일 한 결과를 낳을까요?

  2. 왜 우리는 균일 한 사전을 원할까요? (부적절하기 쉬울 수 있으므로)

일반적으로 제곱 사인 변환이 제공되는 이유와 역할이 무엇인지 잘 모르겠습니다. 누구든지 아이디어가 있습니까?


2
나는 이것을 물음으로써 스스로를 가르치는 자선 단체로 나설 것입니다. 그러나 당신은 어떤 분산 안정화 변환을 언급하고 있습니까? 1sin2(θ)(1sin2(θ)) ?
shadowtalker

2
제곱 사인은 일반적으로 변환을 생각하기에 잘못된 방식입니다. 는 아크 사인 제곱근 또는 각도 변환입니다. θ=arcsinγ
Nick Cox

답변:


3

Jeffreys 이전의 매개 변수는 변경되지 않았습니다. 이런 이유로 많은 베이지안들은 그것을“비 정보적인 선례”로 간주합니다. (하티건은 전과의 전체 공간이 보여 주었다 대한 α + β = 1 J가 있다 제프리스의 사전 및 H는 하티건의 점근 로컬 종래 불변이다 -. 불변 전에 분배 ) JαHβα+β=1JH

균일 한 선행은 정보가없는 것이지만 반복적으로 매개 변수를 임의로 변환 한 후에 새 매개 변수보다 균일 한 것은 완전히 다른 것을 의미하는 경우가 종종 있습니다. 매개 변수화의 임의 변경이 이전에 영향을 미치는 경우 이전은 분명한 정보입니다.

  1. 정의에 따르면 Jeffreys 를 사용하는 것은 분산 안정화 변환을 적용한 후 flat을 사용하는 것과 같습니다.

  2. 수학적 관점에서, 제프리스 이전을 사용하고 분산 안정화 변환을 적용한 후 플랫을 사용하는 것은 동등합니다. 인간의 관점에서 볼 때, 후자는 더 좋을 것입니다. 매개 변수 공간은 위치에 관계없이 모든 방향에서 차이가 모두 동일하다는 의미에서 "동질"이되기 때문입니다.

Bernoulli 예제를 고려하십시오. 테스트에서 99 %의 점수가 59 %의 50 %와 같은 거리 인 90 %의 거리라는 것이 조금 이상하지 않습니까? 분산 안정화 변환 후 이전 쌍은 원래대로 더 분리됩니다. 우주에서의 실제 거리에 대한 직관과 일치합니다. 수학적으로 분산 안정화 변환은 로그 손실의 곡률을 항등 행렬과 동일하게 만듭니다.


1. 균일 한 선행이 "정보가없는"이전을 의미하지는 않지만 다른 값에 대해 특정 값을 평가하지 않는 것에 대한 내 의견은 여전히 ​​해당 특정 매개 변수 하에서 유지됩니다. 2. 이전의 적절성은 매우 중요 합니다. 사전에 부적절하고 데이터 가있는 경우 적절한 후부가 있다고 보장 되지 않습니다 . 매우 중요합니다.
Greenparker

1. 그러나 그것은 요점입니다. 매개 변수화는 임의적이므로 한 값을 다른 값보다 평가하지 않는다는 것은 의미가 없습니다. 2. 실제로, 나는 그것을 결코 발견하지 못했습니다. 내가 추측하는 다른 사람들과 관련이있을 수 있습니다.
Neil G

1. 페어 포인트. 2. 나는 당신이 어떤 문제를 다룰 지 확신하지 못하지만, 제프리스 이전의 단순한 가우시안 가능성조차도 부적절한 사후를 가질 수 있습니다. 여기에 내 대답을 참조 하십시오 .
Greenparker

@Greenparker 당신이 맞아요. 나는 그것이 왜 내 대답에 관련이 없는지 명확히 할 것입니다.
Neil G

편집 내용이 옳지 않다고 생각합니다. 후부가 부적절하면, MCMC는 정의되지 않은 분포에서 도출하려고하기 때문에 무의미합니다. 샘플링 방식을 사용하여 Uniform 샘플링 하려고한다고 상상해보십시오 . 비록 MCMC 알고리즘은 여전히 ​​인체 공학적 일 수 있지만 (널 반복이있는 경우) 샘플은 쓸모가 없습니다. (0,)
Greenparker

5

제공 한 Wikipedia 페이지에서는 실제로 "분산 안정화 변환"이라는 용어를 사용하지 않습니다. "분산-안정화 변환"이라는 용어는 일반적으로 랜덤 변수의 분산을 일정하게 만드는 변환을 나타내는 데 사용됩니다. 베르누이 (Beroulli)의 경우, 이것이 변화와 함께 일어나고있는 일이지만, 그것이 정확히 목표가 아닙니다. 목표는 분산을 안정화시키는 것이 아니라 균일 한 분포를 얻는 것입니다.

Jeffreys를 사용하는 주요 목적 중 하나는 변형 중에 변하지 않는다는 점을 상기하십시오. 즉, 변수를 다시 매개 변수화하면 이전 변수는 변경되지 않습니다.

1.

당신이 지적으로 이전이 베르누이 경우의 제프리스는, 베타 인 . p γ ( γ ) 1(1/2,1/2)

pγ(γ)1γ(1γ).

와 Reparametrizing , 우리의 분포를 찾을 수 있습니다 θ를 . 먼저 θ = arcsin ( γ=sin2(θ)θ, 이후0<γ<1,0<θ<π/2. sin2(x)+cos2(x)=1임을 기억하십시오. F θ ( x )θ=arcsin(γ)0<γ<10<θ<π/2sin2(x)+cos2(x)=1

Fθ(x)=P(θ<x)=P(sin2(θ)<sin2(x))=P(γ<sin2(x))=Fγ(sin2(x))fθ(x)=dFγ(sin2(x)dx=2sin(x)cos(x)pγ(sin2(x))sin(x)cos(x)1sin2(x)(1sin2(x))=1.

θ(0,π/2)sin2(θ)θ

2.

q(θ|x)f(x|θ)f(θ)f(x|θ).

(0,π/2)


사전 확산을 사용하여 "값을 커밋하지 않음"이라는 생각은 잘못되었습니다. 증거는 공간의 변형을 할 수 있으며 확산 사전은 완전히 다른 것을 의미한다는 것입니다.
Neil G

"값을 커밋하지 않음"에 대한 내 의견은 해당 특정 매개 변수에 대해서만 언급합니다. 물론,이 변형은 질량 분포 (이 Bernoulli 예에서와 같이)가 어떻게 분포되는지를 변화시킵니다.
Greenparker

내가 당신의 다른 의견 아래에서 말했듯이, 매개 변수화는 임의적이므로 "어떤 가치에 헌신하지 않는다"는 말은 의미가 없습니다.
Neil G
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.