베타 랜덤 변수의 역 정규 CDF는 어떤 분포를 따르는가?


14

다음을 정의한다고 가정하십시오.

XBeta(α,β)

YΦ1(X)

여기서 Φ1표준 정규 분포CDF의 역수입니다 .

내 질문은 : Y가 따르는 간단한 분포가 있습니까 , 아니면 Y와 근사 할 수 있습니까? YY나는 αβ 가 높을 때 Y 가 정규 분포로 수렴 한다는 시뮬레이션 결과 (아래 그림 참조)를 기반으로 강한 의혹을 가지고 있기 때문에 묻습니다 .하지만 왜 수학적으로 그럴지 모르겠습니다. (물론 α = 1 ; β = 1 인 경우 X 는 균일하고 Y 는 표준 표준이되지만 더 높은 값에 대해서는 왜 그렇 습니까?)αβα=1;β=1XY

이것이 법선에 수렴하면 α 관점에서 그 법선의 매개 변수는 무엇 β입니까? (평균은 Φ1(αα+β)는 모드의 변환이므로 표준 편차를 모릅니다).

(또 다른 방법으로, 이것은 " Φ(Norm(μ,σ))μ 의 일부 방향에 대해 베타 분포로 수렴 σ합니까?" 라고 묻는 것일 수 있습니다 .) 대답하기 쉬운 지 확실하지 않습니다).

시뮬레이션 결과

여기에 왜 결과가 정상이라는 의혹이 있는지 보여줍니다 (수학으로 백업 할 수 없기 때문에). 시뮬레이션은 및 로 R에서 수행 할 수 있습니다 . 예를 들어 높은 매개 변수 α = 3000β = 7000을 선택하면 다음 과 같습니다.Yqnormrnormα=3000β=7000

hist(qnorm(rbeta(5000, 3000, 7000)))

이는 정상적인보고 수행하고, qqnorm샤피로-Wilk 시험 때문에뿐만 아니라 (정상은 귀무 가설이있는) 제안을 :

qqnorm(qnorm(rbeta(5000, 3000, 7000)))

shapiro.test(qnorm(rbeta(5000, 3000, 7000)))
#> 
#>  Shapiro-Wilk normality test
#> 
#> data:  qnorm(rbeta(5000, 3000, 7000))
#> W = 0.99954, p-value = 0.2838

정규성을 조금 더 깊게 탐색하기 위해 매번 에서 5,000 값을 시뮬레이션 한 다음 테스트를 수행하여 정규과 비교 하는 2,000 개의 시뮬레이션 을 수행합니다. (5K 값을 선택했습니다. 최대 값 이 처리 할 수 ​​있고 표준 편차를 감지 할 수있는 힘을 최대화하기 때문입니다 ).Yshapiro.test

분포가 실제로 정상이면 p- 값이 균일 할 것으로 예상됩니다 (null이 참이므로). 그것들은 실제로 균일에 가깝고 분포가 정규에 매우 가깝다는 것을 나타냅니다.

hist(replicate(2000, shapiro.test(qnorm(rbeta(5000, 3000, 7000)))$p.value))

일부 실험에 따르면 β 가 높을수록 분포가 정상에 가까워지는 것으로 나타났습니다 (예를 들어 정상과 는 거리가 멀지 만 시도해 보면 중간에있는 것 같습니다).αβrbeta(5000, 3, 7)hist(replicate(2000, shapiro.test(qnorm(rbeta(5000, 30, 70)))$p.value))


2
여기서 흥미로운 것은 없습니다. 마찬가지로 β 가 같은 비율로 유지, 또는 적어도 그 가정 큰 성장하자 α가 / ( α + β가 ) 멀리 남아 01 . 그런 다음 베타 ( α , β ) 분포는 정규가되고 임의로 좁은 범위 내에서 집중됩니다. Φ - 1 은 미분 가능하지만 거의 정규 변수의 선형 변환 만보고있을 때 본질적으로 선형이됩니다. 이 결과는 Φ - 1 과 관련이 있습니다.αβα/(α+β)01(α,β)Φ1Φ1베타 배포판에 대한 정보는 추가하지 않습니다.
whuber

1
@ whuber 그것은 큰 β에 대해 의미가 있습니다 (저는 이것이 대략 동등한 베타보다 정상에 가깝다고 생각하게 만드는 시뮬레이션을 가지고 있었지만 재실행시 나는 당시에 실수가 있었다고 생각합니다). α = 2 에 대한 모든 생각 ; β = 2 ? Dist는 정상과는 거리가 멀지 만 qnorm은 매우 가깝습니다. αβα=2β=2
David Robinson

1
@whuber 예 시도 hist(replicate(1000, shapiro.test(rbeta(5000, 2, 2))$p.value))hist(replicate(1000, shapiro.test(qnorm(rbeta(5000, 2, 2)))$p.value)). 다시 말해, 일 때 베타가 균일하기 때문에 정상이며, αβ 가 높을 때 베타가 거의 정상이기 때문입니다. 그러나 왜 같지 않은 중간에 베타가 작동합니까? 정상 또는 균일? α=β=1αβ
David Robinson

5
확실히 더 흥미 롭습니다! 베타가 작은 매개 변수 인 경우에도 베타가 보통에 가깝지는 않지만 변환이 대략 보통이라는 것이 맞습니다. 정규성으로부터의 편차는 꼬리에서 이상으로 명백해 지지만 분포의 몸체 전체에서 현저히 작습니다. 궁극적으로 이것은 베타 테일의 전력 법칙 행동으로 추적 할 수 있습니다. Z=±3
whuber

답변:


7

개요

샘플 중앙값에 대한 중앙 한계 정리에 설명 된 구성의 일부를 다시 발견 했으며 , 이는 샘플 의 중앙값 분석을 보여줍니다. (분석 분명히 적용 준용를 , 어떤 분위수에,뿐만 아니라 중간 값). 따라서 (큰 샘플에 해당하는) 큰 베타 매개 변수의 경우 문제에 설명 된 변환에서 정규 분포가 발생한다는 것은 놀라운 일이 아닙니다. 중요한 것은 분포가 작은 베타 매개 변수에 대해서도 정규에 얼마나 가까운 지 입니다. 설명이 필요합니다.

아래에 분석을 스케치하겠습니다. 이 게시물을 적당한 길이로 유지하려면 많은 제안이 필요합니다. 핵심 아이디어 만 지적하고자합니다. 따라서 결과를 여기에 요약하겠습니다.

  1. 에 가까운 β , 모든 것이 대칭이다. 이로 인해 변환 된 분포가 이미 정상으로 보입니다.αβ

  2. 형식의 함수는 작은 값의 αβ ( 1을 초과 하고 비율이 너무 높지 않은 경우에도)에서 처음에는 보통 정상으로 보입니다. 0 또는 1에 가까움 ).Φα1(x)(1Φ(x))β1αβ101

  3. 변환 된 분포의 명백한 정규성은 밀도가 (2)의 함수를 곱한 정규 밀도로 구성되어 있기 때문입니다.

  4. 마찬가지로 β 증가, 정규성에서 출발은 로그 밀도 테일러 시리즈의 나머지로 측정 할 수있다. 차수 n 의 항은 αβ( n - 2 ) / 2 제곱 에 비례하여 감소 합니다. 이는 결국 충분히 큰 αβ 에 대해 n = 3 이상의 모든 항의 항이 상대적으로 작아 져 2 차만 남게됩니다. 이는 정확히 정규 분포의 로그 밀도입니다.αβn(n2)/2αβαβn=3

종합적으로, 이러한 거동은 작은 β 의 경우에도 iid Normal 샘플의 극한이 아닌 Quantile이 대략 Normal 인 이유를 잘 설명 합니다.αβ


분석

그것을 일반화하는 것이 유용 할 수 있기 때문에,하자 될 수 있는 우리가 염두에두고 있지만, 분포 함수 F = Φ .FF=Φ

베타 ( α , β ) 변수 의 밀도 함수 는 정의에 따라g(y)(α,β)

yα1(1y)β1dy.

시키는 확률 적분으로 변환 될 X 및 기록 F 의 유도체 F하는 것으로, 그것은 즉각적 X가 에 비례하는 밀도y=F(x)xfFx

G(x;α,β)=F(x)α1(1F(x))β1f(x)dx.

이것은 강력한 단봉 분포 (단일 베타)의 단조로운 변환이기 때문에 가 다소 이상 하지 않으면 변환 된 분포도 단봉이됩니다. 노멀에 얼마나 가까운 지 연구하기 위해 밀도의 로그를 살펴 보겠습니다.F

(1)logG(x;α,β)=(α1)logF(x)+(β1)log(1F(x))+logf(x)+C

여기서 는 관련이없는 정규화 상수입니다.C

Taylor 시리즈에서 의 성분을 확장하여 값 x 0 주위에 3을 정렬합니다 (이는 모드에 가깝습니다). 예를 들어, 로그 F 의 확장을 다음 과 같이 쓸 수 있습니다.logG(x;α,β)x0logF

logF(x)=c0F+c1F(xx0)+c2F(xx0)2+c3Fh3

동안 | h | | x x 0 | . log ( 1 - F )log f에 대해 비슷한 표기법을 사용하십시오 . h|h||xx0|log(1F)logf

선형 항

따라서 의 선형 항 은(1)

g1(α,β)=(α1)c1F+(β1)c11F+c1f.

경우 의 모드 G는 (x0 이 식은 0입니다. 계수는 x 0 의 연속 함수이므로 α β 가변하기때문에 모드 x 0 도 연속적으로 변합니다. 또한, 일단 α β 가 충분히 크면, c f 1 항은 비교적 중요하지 않게된다. 우리는 한계를 연구하는 것을 목표로하면 α β 되는 α : β 일정 비율의 숙박 γG(;α,β)x0αβx0αβc1fαβ α:βγ따라서 우리는 한번에 모든 기준점 을 선택할 수 있습니다.x0

γc1F+c11F=0.

좋은 예는 이고, 여기서 α = β 이며, F 는 약 0 입니다. 이 경우는 명백한 X 0 = F ( 0 ) = 1 / 2 .γ=1α=βF0x0=F(0)=1/2

우리는 (a) 한계에서 테일러 시리즈의 1 차 항이 사라지고 (b) 방금 설명한 특별한 경우 1 차 항이 항상 0 인 방법을 달성했습니다.

Quadratic terms

These are the sum

g2(α,β)=(α1)c2F+(β1)c21F+c2f.

Comparing to a Normal distribution, whose quadratic term is (1/2)(xx0)2/σ2, we may estimate that 1/(2g2(α,β)) is approximately the variance of G. Let us standardize G by rescaling x by its square root. we don't really need the details; it suffices to understand that this rescaling is going to multiply the coefficient of (xx0)n in the Taylor expansion by (1/(2g2(α,β)))n/2.

Remainder term

Here's the punchline: the term of order n in the Taylor expansion is, according to our notation,

gn(α,β)=(α1)cnF+(β1)cn1F+cnf.

표준화 후에는

gn(α,β)=gn(α,β)(2g2(α,β))n/2).

Both of the gi are affine combination of α and β. By raising the denominator to the n/2 power, the net behavior is of order (n2)/2 in each of α and β. As these parameters grow large, then, each term in the Taylor expansion after the second decreases to zero asymptotically. In particular, the third-order remainder term becomes arbitrarily small.

The case when F is normal

The vanishing of the remainder term is particularly fast when F is standard Normal, because in this case f(x) is purely quadratic: it contributes nothing to the remainder terms. Consequently, the deviation of G from normality depends solely on the deviation between Fα1(1F)β1 and normality.

This deviation is fairly small even for small α and β. To illustrate, consider the case α=β. G is symmetric, whence the order-3 term vanishes altogether. The remainder is of order 4 in xx0=x.

Here is a plot showing how the standardized fourth order term changes with small values of α>1:

Figure

The value starts out at 0 for α=β=1, because then the distribution obviously is Normal (Φ1 applied to a uniform distribution, which is what Beta(1,1) is, gives a standard Normal distribution). Although it increases rapidly, it tops off at less than 0.008--which is practically indistinguishable from zero. After that the asymptotic reciprocal decay kicks in, making the distribution ever closer to Normal as α increases beyond 2.


2

Convergence

Suppose that α=β and let α and take any small ε>0. Then var(X)0. By Chebyshev's inequality we have P[|X0.5|>ε]0 and P[|Y|>ε]0. This means that Y converges in probability (not in distribution actually it converges in distribution - to singleton).

Exact distribution

Denote by fX the density of beta distribution. Then your variable Y has density

fY(y)=fX(Φ(y))ϕ(y).
Since Φ does not have a closed form I believe that this is the furthest you can get (analytically). You can try to put it into FullSimplify function in Wolfram Mathematica to see if it finds some better form.

Here is the density in R so you can plot it instead of histogram.

f_y <- function(x, alpha, beta) {
  dbeta(pnorm(x), alpha, beta) * dnorm(x)
}

Modification

However, you are maybe interested in distribution of

Z=Φ1(αX)
. (still assuming α=β) This may be useful because var(αX)1/8 (useful because it is not zero).

1

Here I present a heuristic explanation (which can be made rigorous at least asymptotically). For simplicity, take kN, k2. Let XBeta(k,k). I want to argue that Y=Φ1(X) is approximately normal.

Now let n=2k1. We start by drawing n i.i.d. uniformly distributed random variables U1,,Un. Next, form the order statistics U(1)U(n).

It is well known that U(k)Beta(k,n+1k), thus:

U(k)Beta(k,k)

In other words: The sample median of n i.i.d. uniformly distributed random variables is Beta(k,k) distributed.

Now let's transform by Zi=Φ1(Ui). Then by the probability integral transform, the Zi are i.i.d. normally distributed. Also form the order statistics of the Zi (Z(1)Z(n)). Since Φ1 is strictly increasing, it follows that:

Φ1(U(k))=Z(k)

Therefore, to show that Y is approximately normal, we just have to argue that the sample median of n i.i.d. normal random variables is approximately normal.

For k large, this can be made precise by a central limit theorem for sample medians. For k small, say k=2, I will let everyone's gut feeling do the speaking.

For ab (but not too different) one can argue similarly by using corresponding quantiles.

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.