좋아, 한번 해보자 나는 두 가지 답을하겠다. 베이지안 (Bayesian), 내 생각으로는 간단하고 자연 스러우며 가능한 빈번한 것들 중 하나이다.
베이지안 솔루션
Beta-Binomial 모델이 켤레이기 때문에 , 즉 이전의 베타를 가정합니다 . 이는 사후 분포도 매개 변수가 , 나는 대신 시행 에서 성공 횟수를 나타 내기 위해 를 사용하고 있습니다. 따라서 추론이 크게 단순화됩니다. 의 가능성있는 값에 대한 사전 지식이 있다면 및 값을 설정하는 데 사용할 수 있습니다 . 즉, 베타를 사전에 정의하십시오. 그렇지 않으면 이전과 동일한 (비 정보)를 가정 할 수 있습니다.P ~ B의 E t ( α , β ) α = α + K , β = β + N - K K N Y P α β α = β = 1pp∼Beta(α,β)α^=α+k,β^=β+n−kknypαβα=β=1또는 기타 비 정보적인 선행 (예 : 여기 참조 ). 어쨌든 당신의 후부는
Pr(p|n,k)=Beta(α+k,β+n−k)
베이지안 추론에서 중요한 것은 사후 확률입니다. 일단 알면 모델의 다른 모든 수량에 대해 추론 할 수 있습니다. 관측 값 에 대해, 특히 새로운 결과 의 벡터에 대해 추론하려고합니다 . 여기서 은 반드시 과 같지 않습니다 . 특히, 각 , 우리 는 앞의 시도 에서 성공을 거두었 다면 다음 시도 에서 정확히 성공 을 가질 확률을 계산하려고합니다 . 사후 예측 질량 함수 :y = y 1 , … , y m m n j = 0 , … , m j m k nyy=y1,…,ymmnj=0,…,mjmkn
Pr(j|m,y)=Pr(j|m,n,k)=∫10Pr(j,p|m,n,k)dp=∫10Pr(j|p,m,n,k)Pr(p|n,k)dp
그러나 대한 이항 모델은 조건부 로 특정 값을 갖는 에 대해 시행 에서 성공 확률이 과거 결과에 의존하지 않음을 의미합니다.p j mYpjm
f(j|m,p)=(jm)pj(1−p)j
따라서 표현은
Pr(j|m,n,k)=∫10(jm)pj(1−p)jPr(p|n,k)dp=∫10(jm)pj(1−p)jBeta(α+k,β+n−k)dp
이 적분의 결과는 Beta-Binomial 분포라는 잘 알려진 분포입니다. 구절을 건너 뛰면 끔찍한 표현이 나타납니다.
Pr(j|m,n,k)=m!j!(m−j)!Γ(α+β+n)Γ(α+k)Γ(β+n−k)Γ(α+k+j)Γ(β+n+m−k−j)Γ(α+β+n+m)
2 차 손실을 고려한 에 대한 우리의 점 추정치 는 물론이 분포의 평균입니다.j
μ=m(α+k)(α+β+n)
이제 예측 구간을 찾아 봅시다. 이 이산 분포이기 때문에, 우리는에 대한 폐쇄 형태의 표현이없는 등이 . 그 이유는 Quantile을 정의하는 방법에 따라 불연속 분포의 경우 Quantile 함수가 함수가 아니거나 불연속 함수이기 때문입니다. 그러나 이것은 큰 문제는 아닙니다. 작은 경우 확률 여기에서 찾을 그러한P r ( j 1[j1,j2]m m P r ( j = 0 | m , n , k ) , P r ( j ≤ 1 | m , n , k ) , … , P r ( j ≤ m - 1 |Pr(j1≤j≤j2)=0.95mmj 1 , j 2Pr(j=0|m,n,k),Pr(j≤1|m,n,k),…,Pr(j≤m−1|m,n,k)j1,j2
Pr(j1≤j≤j2)=Pr(j≤j2|m,n,k)−Pr(j<j1|m,n,k)≥0.95
물론 둘 이상의 커플을 찾을 수 있으므로 위의 내용이 만족 되는 가장 작은 찾는 것이 이상적 입니다. 참고[j1,j2]
Pr(j=0|m,n,k)=p0,Pr(j≤1|m,n,k)=p1,…,Pr(j≤m−1|m,n,k)=pm−1
Beta-Binomial 분포의 CMF (Cumulative Mass Function) 값일 뿐이므로 닫힌 형식 표현식 이 있지만 일반화 된 초 지오메트리 기능 측면에서 볼 때 매우 복잡합니다. 오히려 R 패키지를 설치 하고 Beta-Binomial 분포의 CMF를 계산하기 위해 extraDistr
호출 pbbinom
합니다. 특히, 모든 확률 을 한 번에 계산하려면 다음과 같이 작성하십시오.p0,…,pm−1
library(extraDistr)
jvec <- seq(0, m-1, by = 1)
probs <- pbbinom(jvec, m, alpha = alpha + k, beta = beta + n - k)
어디 alpha
와 beta
의 매개 변수의 값은 당신의 베타 이전, 즉, 와 (따라서 1이 균일 이전을 통해 사용하는 경우 ). 물론 R이 Beta-Binomial 분포에 대한 Quantile 함수를 제공하면 훨씬 간단하지만 안타깝게도 그렇지 않습니다.β pαβp
베이지안 솔루션의 실제 예
, 이라고합시다 (따라서 처음 100 회 시도에서 70 개의 성공을 관찰했습니다). 다음 시행 에서 성공 횟수 에 대한 점 추정치 및 95 % 예측 간격을 원합니다 . 그때k = 70 j m = 20n=100k=70jm=20
n <- 100
k <- 70
m <- 20
alpha <- 1
beta <- 1
어디에서 전에 유니폼을 가정 특정 응용 프로그램에 대한 사전 지식에 따라,이 또는 좋은 이전하지 않을 수 있습니다. 그러므로p
bayesian_point_estimate <- m * (alpha + k)/(alpha + beta + n) #13.92157
분명히 대한 정수가 아닌 추정은 의미가 없으므로 가장 가까운 정수 (14)로 반올림 할 수 있습니다. 그런 다음 예측 구간에서 다음을 수행하십시오.j
jvec <- seq(0, m-1, by = 1)
library(extraDistr)
probabilities <- pbbinom(jvec, m, alpha = alpha + k, beta = beta + n - k)
확률은
> probabilities
[1] 1.335244e-09 3.925617e-08 5.686014e-07 5.398876e-06
[5] 3.772061e-05 2.063557e-04 9.183707e-04 3.410423e-03
[9] 1.075618e-02 2.917888e-02 6.872028e-02 1.415124e-01
[13] 2.563000e-01 4.105894e-01 5.857286e-01 7.511380e-01
[17] 8.781487e-01 9.546188e-01 9.886056e-01 9.985556e-01
확률 간격 동등한 꼬리를 들어, 우리가 원하는 최소 되도록 및 최대 되도록 . 이 방법으로 우리는 P r ( j ≤ j 2 | m , nj2J 1 개 P를 R ( J < J 1 | m , N , K ) = P (R) ( J ≤ J 1 - 1 | m , N , K ) ≤ 0.025Pr(j≤j2|m,n,k)≥0.975j1Pr(j<j1|m,n,k)=Pr(j≤j1−1|m,n,k)≤0.025
Pr(j1≤j≤j2|m,n,k)=Pr(j≤j2|m,n,k)−Pr(j<j1|m,n,k)≥0.975−0.025=0.95
따라서 위의 확률을 및 입니다. 이 베이지안 예측 구간의 확률은 0.9778494로 0.95보다 큽니다. 와 같이 더 짧은 구간을 찾을 수 있지만,이 경우 테일 확률의 두 부등식 중 하나 이상이 충족되지 않습니다.j2=18j1=9Pr(j1≤j≤j2|m,n,k)≥0.95
상용 솔루션
2011 년 Krishnamoorthy and Peng 의 치료에 대해 살펴 보겠습니다 . 하자 및 독립적으로 배포 Binominally. 의 관측치에 따라 에 대해 예측 간격을 원합니다 . 다시 말해 우리는 다음과 같이 찾습니다 .X ~ B 나 N O m (Y∼Binom(m,p)X∼Binom(n,p)1−2α−YXI=[L(X;n,m,α),U(X;n,m,α)]
PrX,Y(Y∈I)=PrX,Y(L(X;n,m,α)≤Y≤U(X;n,m,α)]≥1−2α
" "는 불연속 랜덤 변수를 다루기 때문에 정확한 적용 범위를 기대할 수는 없지만 항상 최소 간격을 갖는 구간을 찾을 수 있습니다. 공칭 범위, 따라서 보수적 인 간격. 이제 그것의 조건부 분포 입증 될 수 주어진 샘플 크기 초기 하이다 인구 성공의 개수 과 인구 크기 . 따라서 조건부 pmf는≥1−2αXX+Y=k+j=ssnn+m
Pr(X=k|X+Y=s,n,n+m)=(nk)(ms−k)(m+ns)
조건부 CDF 주어진 따라서 인XX+Y=s
Pr(X≤k|s,n,n+m)=H(k;s,n,n+m)=∑ki=0(ni)(ms−i)(m+ns)
이 CDF 의 가장 큰 장점은 우리가 모르는 의존 하지 않는다는 것입니다. 두 번째로 중요한 것은 PI를 쉽게 찾을 수 있다는 것입니다. 실제로, 우리가 값 의 X를 관찰 하면 낮은 예측 한계는 가장 작은 정수 입니다.pk1−αL
Pr(X≥k|k+L,n,n+m)=1−H(k−1;k+L,n,n+m)>α
이에 따라 상한 예측 한계는 다음과 같이 가장 큰 정수입니다.1−α
Pr(X≤k|k+U,n,n+m)=H(k;k+U,n,n+m)>α
따라서, 는 적어도 의 커버리지의 에 대한 예측 간격 이다. 때 유의 근접 0 또는 1이고,이 간격이 큰 사람에 대한 보수적 인 , , 즉, 커버리지는보다 상당히 크다 .[L,U]Y1−2αpnm1−2α
Frequentist 솔루션을 사용한 실용적인 예
이전과 동일한 설정이지만 및 를 지정할 필요 는 없습니다 (Frequentist 프레임 워크에는 사전이 없습니다) :αβ
n <- 100
k <- 70
m <- 20
점 추정치는 이제 성공 확률에 대한 MLE 추정값 인 사용하여 얻습니다 . 이는 시행 에서 성공한 횟수에 대한 다음 추정치입니다 .p^=knm
frequentist_point_estimate <- m * k/n #14
예측 구간의 경우 절차가 약간 다릅니다. 와 같은 가장 큰 찾아서 위 식을 계산해 봅시다. 모든 에 대해 :P r ( X ≤ k | k + U , n , n + mUPr(X≤k|k+U,n,n+m)=H(k;k+U,n,n+m)>αU[0,m]
jvec <- seq(0, m, by = 1)
probabilities <- phyper(k,n,m,k+jvec)
확률이 여전히 0.025보다 큰 최대 는U
jvec[which.min(probabilities > 0.025) - 1] # 18
베이지안 접근 방식과 동일합니다. 낮은 예측 경계 은 와 같은 가장 작은 정수입니다 따라서P r ( X ≥ k | k + LLPr(X≥k|k+L,n,n+m)=1−H(k−1;k+L,n,n+m)>α
probabilities <- 1-phyper(k-1,n,m,k+jvec)
jvec[which.max(probabilities > 0.025) - 1] # 8
따라서 우리의 빈번한 "정확한"예측 구간은 입니다.[L,U]=[8,18]