두 개의 임의 변수 와 가 서로 관련이없는 경우 와 서로 관련이 없음을 알 수 있습니까? 내 가설은 예입니다.
상관되지 은 를 의미하거나
그것은 또한 다음을 의미합니까?
두 개의 임의 변수 와 가 서로 관련이없는 경우 와 서로 관련이 없음을 알 수 있습니까? 내 가설은 예입니다.
상관되지 은 를 의미하거나
그것은 또한 다음을 의미합니까?
답변:
아니요. 반례 :
하자 균일 분산에 , .[ - 1 , 1 ] Y = X (2)
그런 다음 및 ( 은 홀수 함수)이므로 는 상관되지 않습니다.E [ X Y ] = E [ X 3 ] = 0 X 3 X , Y
그러나
마지막 불평등은 Jensen의 불평등에서 비롯됩니다. 또한 가 일정하지 않기 때문에 이라는 사실도 따릅니다 .X
추론의 문제는 가 의존 하고 그 반대도 가능하므로 두 번째 평등이 유효하지 않다는 것입니다. y
하더라도 뿐만 아니라, 그 가능성이 및 연관되지만, 심지어 완벽한와 연관 될 수있다 :X 2 Y Corr (
> x <- c(-1,0,1); y <- c(1,0,1)
> cor(x,y)
[1] 0
> cor(x^2,y)
[1] 1
또는 :
> x <- c(-1,0,1); y <- c(-1,0,-1)
> cor(x,y)
[1] 0
> cor(x^2,y)
[1] -1
R 코드를 읽을 수없는 경우 첫 번째 예는 가 , 또는 같을 가능성이있는 관절 분포를 갖는 두 개의 임의 변수 와 를 고려하는 것과 같습니다. . 완벽하게 음의 상관 관계가있는 예에서 는 , 또는 입니다.Y ( X , Y ) ( − 1 , 1 ) ( 0 , 0 ) ( 1 ,( X , Y ) ( - 1 , - 1 ) ( 0 , 0 ) ( 1 , - 1 )
그럼에도 불구하고, 또한 생성 할 수 와 되도록 모든 극단이 가능하므로 :Y Corr ( X 2 , Y ) = 0
> x <- c(-1,-1,0,1,1); y <- c(1,-1,0,1,-1)
> cor(x,y)
[1] 0
> cor(x^2,y)
[1] 0