p- 값이 정확히 1 (1.0000000) 인 경우 귀무 가설이 참이되도록 신뢰 구간 한계는 무엇이어야합니까? [닫은]


12

이것은 순전히 가상의 질문입니다. 매우 일반적인 설명은 이 사실이 아니며 샘플 크기의 문제 일뿐입니다.H0

실제로는 정규 분포 모집단에서 추출 된 두 평균 ( ) ( 및 추정값 ) 간에 측정 가능한 차이가 전혀 없다고 가정합니다 . 그룹당 이라고 가정 하고 -test를 사용 합니다. 이는 값이 임을 의미하며 이는 전혀 일치하지 않음을 나타냅니다 . 이는 검정 통계량이 임을 나타냅니다 . 그룹 간의 평균 차이는 입니다. 이 경우 평균 차이에 대한 신뢰 구간 의 한계는 무엇입니까 ? 그들이 될까μ1=μ2μ=0σ=1N=16tp1.00000H00095%[0.0,0.0] ?

내 질문의 요점은 언제 이 참 이라고 말할 수 있습니까? 즉 이 경우 입니까? 또는 빈번한 틀에서 두 수단을 비교할 때 진정으로 "차이가 없다"고 말할 수 있습니까?H0μ1=μ2


1
나는 이것이 이미 stats.stackexchange.com/questions/275677/… 에서 대답되었다고 말하고 싶지만 나는 그것을 고집하지 않습니다.
Tim

1
긍정적 인 인구 분산으로 을 얻는 방법을 생각해내는 데 어려움을 겪고 있습니다. p=1
Dave


3
"그룹당 N = 16이라고 가정하고 t-test를 사용합니다. 이는 p- 값이 1.00000임을 의미합니다. 이는 H0과의 불일치가 전혀 없음을 나타냅니다." 왜 (이것이 무엇을 의미합니까?) 무언가가 p- 값이 1임을 의미한다고 주장합니까? H_0이 참일 때 p- 값은 균일하게 분포되며 p = 1은 거의 발생하지 않습니다.
Sextus Empiricus

2
@MartijnWeterings 절대적으로 정확합니다. 실제로 두 분포를 샘플링한다고해서이를 비교할 때 p- 값이 1이라는 것을 의미하지는 않습니다. 정의에 따르면 시간의 5 %는 0.05 미만의 p- 값을 얻습니다.
핵 왕

답변:


17

t- 검정에 대한 신뢰 구간은 x¯1x¯2±tcrit,αsx¯1x¯2 이며, 여기서 x¯1x¯2 는 표본 평균, tcrit,α 는 주어진 α 에서 의 임계 t 값 이고, s ˉ x 1 - ˉ x 2 는 평균 차이의 표준 오차입니다. 만약αsx¯1x¯2p=1.0 이면x¯1x¯2=0 입니다. 따라서 공식은±tcrit,αsx¯1x¯2 이고 한계는 {tcrit,αsx¯1x¯2 ,tcrit,αsx¯1x¯2 }.

한계가 {0,0}. 것이라고 생각하는 이유를 잘 모르겠습니다 . 임계 t 값은 0이 아니며 평균 차이의 표준 오차는 0이 아닙니다.


10

수작업으로 계산하는 대신 R을 사용하여 문제를 수치 적으로 해결하는 것이 매우 게으른 것입니다.

평균이 (거의!) 정확히 0이고 SD가 정확히 1 인 정규 분포 값을 제공하는 함수를 정의하십시오 .

rn2 <- function(n) {r <- rnorm(n); c(scale(r)) }

t- 검정을 실행하십시오.

t.test(rn2(16),rn2(16))

    Welch Two Sample t-test

data:  rn2(16) and rn2(16)
t = 1.7173e-17, df = 30, p-value = 1
alternative hypothesis: true difference in means is not equal to 0
95 percent confidence interval:
 -0.7220524  0.7220524
sample estimates:
   mean of x    mean of y 
6.938894e-18 8.673617e-19 

부동 소수점 부정확으로 인해 평균이 정확히 0이 아닙니다.

보다 직접적으로 CI는 ± sqrt(1/8)*qt(0.975,df=30) ; 각 평균의 분산은 1/16이므로 풀링 된 분산은 1/8입니다.


8

CI에는 제한이있을 수 있지만 정확히 0 중심에 있습니다.

2- 표본 T- 검정 (두 모집단의 평균 차이에 대한 검정)의 경우 p- 값이 정확히 1이면 관측 된 표본 평균이 정확히 동일한 경우에 해당합니다. (샘플 분산은 모든 값을 취할 수 있습니다.)이를 보려면 테스트에 대한 p- 값 함수는 다음과 같습니다.

pp(x,y)=P(|X¯Y¯SY/nY+SY/nY||x¯y¯sY/nY+sY/nY|).

따라서 하면 다음이 생성됩니다.x¯=y¯

p(x,y)=P(|X¯Y¯SY/nY+SY/nY|0)=1.

이제 Welch-Satterwaite 근사값을 사용하여 표준 (대략) 신뢰 구간을 형성한다고 가정합니다. 이 경우 (정확한 p- 값 1)를 가정하면 신뢰 구간이됩니다.x¯=y¯

CI(1α)=[0±sXnX+tDF,α/2sYnY],

자유도 는 Welch-Satterwaite 근사치에 의해 결정됩니다. 문제의 관측 된 표본 분산에 따라 신뢰 구간은 0을 중심으로하는 유한 구간 일 수 있습니다. 즉, 신뢰 구간이 정확히 0에 중심을 두는 한 신뢰 구간에는 제한이있을 수 있습니다.DF


물론, 기본 데이터가 실제로 연속 분포에서 나온 경우이 이벤트는 확률 0으로 발생하지만 데이터가 발생한다고 가정 해 봅시다.


질문은 "σ 추정값 = 1"입니다.
Accumulation

이 조건은 p- 값 1을 얻는 데 필요하지 않으므로 삭제했습니다.
벤-복직 자 모니카

3

일어날 확률이 0 인 것들에 대해 설득력있는 철학적 논의를하기는 어렵습니다. 질문과 관련된 몇 가지 예를 보여 드리겠습니다.

같은 분포에서 두 개의 거대한 독립적 인 샘플을 가지고 있다면, 두 샘플은 여전히 변동이있을 것이다, 풀링 2 표본 t의 통계는 근처에있을 것입니다,하지만 정확히 , P 값은 다음과 같이 배포됩니다 0 95 % 신뢰 구간은 매우 짧고 가깝습니다Unif(0,1),0.

그러한 데이터 세트와 t 테스트 중 하나의 예 :

set.seed(902)
x1 = rnorm(10^5, 100, 15)  
x2 = rnorm(10^5, 100, 15)
t.test(x1, x2, var.eq=T)

        Two Sample t-test

data:  x1 and x2
t = -0.41372, df = 2e+05, p-value = 0.6791
alternative hypothesis: true difference in means is not equal to 0
95 percent confidence interval:
 -0.1591659  0.1036827
sample estimates:
mean of x mean of y 
 99.96403  99.99177 

10,000 가지 상황에서 요약 한 결과는 다음과 같습니다. 먼저, P- 값의 분포.

set.seed(2019)
pv = replicate(10^4, 
   t.test(rnorm(10^5,100,15),rnorm(10^5,100,15),var.eq=T)$p.val)
mean(pv)
[1] 0.5007066   # aprx 1/2
hist(pv, prob=T, col="skyblue2", main="Simulated P-values")
 curve(dunif(x), add=T, col="red", lwd=2, n=10001)

여기에 이미지 설명을 입력하십시오

다음 테스트 통계 :

set.seed(2019)  # same seed as above, so same 10^4 datasets
st = replicate(10^4, 
       t.test(rnorm(10^5,100,15),rnorm(10^5,100,15),var.eq=T)$stat)
mean(st)
[1] 0.002810332  # aprx 0
hist(st, prob=T, col="skyblue2", main="Simulated P-values")
 curve(dt(x, df=2e+05), add=T, col="red", lwd=2, n=10001)

여기에 이미지 설명을 입력하십시오

CI의 너비도 마찬가지입니다.

set.seed(2019)
w.ci = replicate(10^4, 
        diff(t.test(rnorm(10^5,100,15),
         rnorm(10^5,100,15),var.eq=T)$conf.int)) 
mean(w.ci)
[1] 0.2629603

가정이 충족되는 연속 데이터로 정확한 테스트를 수행하는 단일성 P- 값을 얻는 것은 거의 불가능합니다. 따라서 현명한 통계학자는 P- 값 1을 볼 때 무엇이 ​​잘못되었을 지 숙고 할 것입니다.

예를 들어, 소프트웨어에 두 개의 동일한 큰 샘플을 제공 할 수 있습니다 . 프로그래밍은 이것이 두 개의 독립적 인 샘플 것처럼 수행되며 이상한 결과를 제공합니다. 그러나 그때조차도 CI의 너비는 0이 아닙니다.

set.seed(902)
x1 = rnorm(10^5, 100, 15)  
x2 = x1
t.test(x1, x2, var.eq=T)

        Two Sample t-test

data:  x1 and x2
t = 0, df = 2e+05, p-value = 1
alternative hypothesis: true difference in means is not equal to 0
95 percent confidence interval: 
 -0.1316593  0.1316593
sample estimates:
mean of x mean of y 
 99.96403  99.96403 

정규 분포가 연속이기 때문에 대한 확률, 그러나, 모든 공정에 충분 어떤 않는 특정 예제가 제로 문제가되지 U1 = U2 또는 U1-U2 = -0.977이든 여부. 나는 "이런 일은 절대 일어나지 않을 것이고 기회는 잘못 될 수있다"라는 문구에 대해 언급하고 싶은 유혹을 받았지만, 그렇지 않다고 생각했다. 구체적인 예로 확률 0 .
Lewian

1
이것은 잘못된 질문에 대한 정답입니다
David

1
@ 데이비드. 아마 그렇습니다. 당신이 옳은 질문이라고 생각하는 것을 말하고 대답을 제안 할 수 있다면, 그것은 도움이 될 것입니다. 나는 몇 가지 오해라고 생각한 것 중 몇 가지만을 다루려고 노력했다.
BruceET

OP는 "가장 일반적인 진술은 H0가 사실이 아니라는 것"이라고 진술했다. @BruceET의 답변은 왜 H0가 받아 들여질 수 없는지를 보여줍니다. H0이 가까워 질수록,보다 균일하게 랜덤 한 P가되는데, 이는 H0 참일 때 (0.98,0.99) 사이의 P가 (0.1, 0.2) 사이의 P와 똑같다는 것을 의미 합니다.
Ron Jensen – 우리 모두

1

간단한 대답 (+1-Noah)은 평균 차이에 대한 신뢰 구간 이 p- 값과 다른 방식으로 표본 의 관측 된 변동에 의존하기 때문에 여전히 길이가 0이 아님을 설명합니다 .

그러나 왜 그런지 궁금 할 것입니다. p- 값이 높을수록 신뢰 구간이 작다는 것을 상상하는 것은 그리 이상하지 않습니다. 결국 그들은 둘 다 귀무 가설의 확인에 가까운 것에 해당합니다. 왜 이것이 잘못된 생각입니까?

높은 p- 값은 작은 신뢰 구간과 다릅니다.

  • p- 값은 주어진 편차를 관찰하는 것이 얼마나 가능한지를 표현함으로써 특정 관측치가 어느 정도 극단적인지를 나타냅니다 (가설을 고려한 극단). 이는 실험의 정확성과 관련 하여 관찰 된 효과 크기의 표현입니다 (실험이 '정확하지 않은'경우 이러한 관찰이 통계적 / 확률 적 관점에서 극단적이지 않은 경우 큰 관찰 된 효과 크기는 그다지 의미가 없을 수 있습니다) ). p- 값이 1 인 것을 관찰하면이 값만 ( 0 만) 큰 결과를 관찰 할 확률이 1과 같기 때문에 제로 효과 를 관찰 했음을 의미합니다 (그러나 이것은 제로 효과 있는 것과 같지 않음 ).

    주석 : 왜 p- 값인가? p- 값은 예상 효과 크기 (확률)와 관련하여 실제 관찰 된 효과 크기를 나타냅니다. 이것은 실험이 데이터 / 보존의 일반적인 변동으로 인해 순수한 우연으로 일부 관련 효과 크기를 관찰 할 수 있기 때문에 관련이 있습니다. 관측 / 실험에 p- 값이 낮다는 것은 실험의 정밀도가 높다는 것을 의미합니다. 즉, 관측 된 효과 크기가 확률 / 변동으로 인해 덜 자주 / 일어날 가능성이 있습니다 (실제 효과로 인해 발생할 수 있음). .

    XN(0,1)P(X=0)=0

  • αα

    높은 p- 값이 (필수적으로) 귀무 가설에 대한 증거 / 지원 / 무엇이 아님에 유의해야합니다 . p- 값이 높다는 것은 주어진 귀무 가설에 대해 관측이 현저하거나 극한이 아니라는 것을 의미하지만, 이는 대체 가설의 경우에도 해당 될 수 있습니다 (즉, 결과는 가설의 예 / 아니오 효과에 따름). 이는 일반적으로 데이터에 많은 정보 (예 : 높은 노이즈 또는 작은 샘플)가없는 경우에 발생합니다.

p0.5pU(0,1)


1

H0μ1=μ2

아니오 . "증거의 부재는 부재의 증거가 아닙니다." 확률은 논리의 확장 으로 생각할 수 있으며 불확실성이 추가되었으므로 단위 간격의 실수 대신 가설 검정이 이진 값만 0 (거짓) 또는 1 (참)로 반환한다고 상상해보십시오. 이 경우 다음 예 와 같이 기본 논리 규칙이 적용됩니다 .

  • 비가 오면 땅이 젖었을 가능성이 있습니다.
  • 땅이 젖었다
  • 따라서 비가 내렸다.

비가 와서 땅이 젖었을 수 있습니다. 또는 스프링클러, 홈통을 청소하는 사람, 수도 본관 등이 원인 일 수 있습니다. 위의 링크에서 더 극단적 인 예를 찾을 수 있습니다.

μ1μ20

p=1±0H0


0

신뢰 구간 계산에 표준 t 또는 가우스 공식을 사용하는 것을 막을 수있는 것은 없습니다. 필요한 모든 정보가 질문에 제공됩니다. p = 1은 그에 문제가 있음을 의미하지 않습니다. p = 1은 특히 H0이 사실임을 확신 할 수있는 것은 아닙니다 . 임의 변동이 여전히 존재하고 u0 = u1이 H0에서 발생할 수있는 경우, u0의 실제 값이 실제 u1과 약간 다른 경우에도 발생할 수 있으므로 동일 구간보다 신뢰 구간이 더 많습니다.


나는 약간의 편집을했다, 나는 그것이 지금 더 정의되기를 바란다.
arkiaamu

좋아, 나는 이전 버전에서 정의되지 않은 것에 대한 언급을 제거했다. 그 동안 다른 사람들이 그 질문에 올바르게 대답했습니다.
Lewian

MathJax 표기법을 사용하십시오
David

0

매우 일반적인 진술은 H0가 결코 사실이 아니며 샘플 크기의 문제 일 뿐이라는 것입니다.

자신이 말하는 내용을 알고 정확하게 말하고있는 사람들에게는 해당되지 않습니다. 기존의 가설 검정은 결코 종결되지 널이 사실이라고하지만 여부를 널이 사실인지 널인지 여부를 별도로 체결 사실로.

이것은 p- 값이 1.00000임을 의미합니다.

양측 테스트의 경우 예.

H0와의 불일치가 전혀 없음을 나타냅니다.

H0H00H0H0 평균이 모드와 일치하지 않는 단일 샘플을 보는 것보다 훨씬 더 합법적으로 "불일치"라고 예측합니다.

이 경우 평균 차이에 대한 95 % 신뢰 구간의 한계는 무엇입니까?

f(ϵ)ϵlimϵ0f(ϵ)

내 질문의 요점은 언제 H0이 참이라고 말할 수 있습니까, 즉이 경우 μ1 = μ2입니까?

우리는 우리가 원하는 것을 말할 수 있습니다 . 그러나 검정에서 널이 참임을 나타내는 것은 결과에 관계없이 기존의 가정 검정과 일치하지 않습니다. 그리고 그렇게하는 것은 사악한 견해에서 근거가 없습니다. 평균이 같지 않다는 대립 가설은 평균의 모든 가능한 차이를 포함합니다. 대립 가설은 "평균의 차이는 , , 또는 또는123.5.1, ... "우리는 평균에 임의의 작은 차이를 배치 할 수 있으며, 이는 대체 가설과 일치 할 것입니다. 그리고 임의의 작은 차이를 갖는 경우, 그 평균이 주어진 확률은 null이 주어진 확률에 임의로 가깝습니다. 대립 가설은 평균과 같은 분포의 모수가 다를 가능성뿐만 아니라 완전히 다른 분포가있을 가능성을 포함합니다. 예를 들어, 대립 가설은 "두 표본은 항상 는 정확히 1 또는 정확히 0이며 각각에 대해 확률이 .5입니다. 결과는 보다 일치하며 결과는 null입니다.

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.