3 개의 랜덤 변수의 상관 관계에 대한 경계


28

세 가지 랜덤 변수가 있습니다 . 세 변수 사이의 세 가지 상관 관계는 동일합니다. 그건,x,y,z

ρ=cor(x,y)=cor(x,z)=cor(y,z)

줄 수있는 가장 빡빡한 것은 무엇입니까 ?ρ


1
아마도 "pho"는 rho ( ρ ) 를 의미 합니다. 그러나 귀하의 질문은 명확하지 않습니다. "당신이 줄 수있는 가장 엄격한 한계는 무엇입니까?"는 무엇을 의미합니까?
gung-Monica Monica 복원

변수의 이름은 단지 더미입니다. 가장 밀접한 관계로, 상관 관계에 대해 [-1, 1]과 같은 것을 의미하지만 이것은 가능한 가장 엄격한 한계는 아닙니다.
user1352399

rho = cor (x, y) = cor (x, z) = cor (y, z)이고 rho의 한계는 무엇입니까?
user31264

네, rho = cor (x, y) = cor (x, z) = cor (y, z)이고 rho의 한계는 무엇입니까? Dilip, rho가 음이 아니어야한다는 것을 말해 줄 수 있습니까?
user1352399

1
이것을 인용 할 교과서는 Seber & Lee "선형 회귀 분석"(적어도 첫 번째 판에서는 ...)
kjetil b halvorsen

답변:


29

공통 상관 관계 ρ 는 값 가질 수 +1있지만 아닙니다 1. 경우 ρX,Y=ρX,Z=1 , 다음 ρY,Z 동일하지 않은 수 1 하지만 사실상 +1 . 세 확률 변수의 일반적인 상관 관계의 가장 작은 값은 12 . 보다 일반적으로, 최소한의 공통 상관n랜덤 변수이다1n1 벡터로 간주 할 때, 그들은 (차원 단면의 정점에있는n1)에서n차원 공간.

n 단위 분산 랜덤 변수 의 합의 분산을 고려하십시오 Xi. 우리는 그 여기서 ˉ ρ평균값 ( N

var(i=1nXi)=i=1nvar(Xi)+i=1njincov(Xi,Xj)=n+i=1njinρXi,Xj(1)=n+n(n1)ρ¯
ρ¯ 상관 계수. 그러나 이후VAR(ΣX)0, 우리는 쉽게에서 얻을 (1) ˉ ρ-1(n2)var(iXi)0(1)
ρ¯1n1.

그래서, 상관 계수의 평균 값은 적어도 . 경우모든상관 계수는이같은ρ을, 그들의 평균은 동일ρ를하고 우리가 그래서 ρ를-11n1ρρ 그것은 일반적인 상관 치되는 확률 변수 가질 수 있습니다ρ는동일을-1

ρ1n1.
ρ ? 예. Xi상관되지 않은 단위 분산 랜덤 변수이고Yi=Xi-1로설정 한다고 가정합니다.1n1Xi . 그런 다음E[Yi]=0이고 var(Yi)= ( n 1)Yi=Xi1nj=1nXj=XiX¯E[Yi]=0COV(YI,Y의J)=-2(N-1
var(Yi)=(n1n)2+(n1)(1n)2=n1n
ρYi,Yj=cov(Yi,Yj)
cov(Yi,Yj)=2(n1n)(1n)+(n2)(1n)2=1n
따라서,Y최소 공통 상관 값을 달성하는 임의의 변수는-1
ρYi,Yj=cov(Yi,Yj)var(Yi)var(Yj)=1/n(n1)/n=1n1.
Yi . 우연히도, iYi=0이므로 벡터로 간주되는 랜덤 변수는n차원 공간의(n-1)차원 초평면에있습니다.1n1iYi=0(n1)n

25

소감 가능한 바인딩입니다 . 1/2ρ1 그러한 모든 가치는 실제로 나타날 수 있습니다.

결과에 대해 특별히 깊거나 신비로운 것이 없다는 것을 보여주기 위해이 대답은 먼저 완전한 기본 솔루션을 제시하며, 예상되는 제곱의 값이되는 편차가 음이 아니어야한다는 명백한 사실 만 요구합니다. 그 다음에는 일반적인 해결책 (약간 더 복잡한 대수적 사실을 사용함)이 이어집니다.

기본 솔루션

의 선형 조합의 분산은 음이 아니어야합니다. x,y,z 수 (가) 이러한 변수의 편차를 보자 υ 2를 각각. 모두 0이 아닙니다 (그렇지 않으면 일부 상관 관계가 정의되지 않음). 우리가 계산할 수있는 분산의 기본 속성을 사용하여σ2,τ2,υ2

0Var(αx/σ+βy/τ+γz/υ)=α2+β2+γ2+2ρ(αβ+βγ+γα)

모든 실수 .(α,β,γ)

이라고 가정하면 약간의 대수적 조작은 다음과 같습니다.α+β+γ0

ρ1ρ13((α2+β2+γ2)/3(α+β+γ)/3)2.

(α,β,γ)(1/3,1/3,1/3)11α=β=γ0

ρ1/2.

의 명시 적 예n=3 below (involving trivariate Normal variables (x,y,z)) shows that all such values, 1/2ρ1, actually do arise as correlations. This example uses only the definition of multivariate Normals, but otherwise invokes no results of Calculus or Linear Algebra.

General solution

Overview

Any correlation matrix is the covariance matrix of the standardized random variables, whence--like all correlation matrices--it must be positive semi-definite. Equivalently, its eigenvalues are non-negative. This imposes a simple condition on ρ: it must not be any less than 1/2 (and of course cannot exceed 1). Conversely, any such ρ actually corresponds to the correlation matrix of some trivariate distribution, proving these bounds are the tightest possible.


Derivation of the conditions on ρ

Consider the n by n correlation matrix with all off-diagonal values equal to ρ. (The question concerns the case n=3, but this generalization is no more difficult to analyze.) Let's call it C(ρ,n). By definition, λ is an eigenvalue of provided there exists a nonzero vector xλ such that

C(ρ,n)xλ=λxλ.

These eigenvalues are easy to find in the present case, because

  1. Letting 1=(1,1,,1), compute that

    C(ρ,n)1=(1+(n1)ρ)1.
  2. Letting yj=(1,0,,0,1,0,,0) with a 1 only in the jth place (for j=2,3,,n), compute that

    C(ρ,n)yj=(1ρ)yj.

Because the n eigenvectors found so far span the full n dimensional space (proof: an easy row reduction shows the absolute value of their determinant equals n, which is nonzero), they constitute a basis of all the eigenvectors. We have therefore found all the eigenvalues and determined they are either 1+(n1)ρ or 1ρ (the latter with multiplicity n1). In addition to the well-known inequality 1ρ1 satisfied by all correlations, non-negativity of the first eigenvalue further implies

ρ1n1

while the non-negativity of the second eigenvalue imposes no new conditions.


Proof of sufficiency of the conditions

The implications work in both directions: provided 1/(n1)ρ1, the matrix C(ρ,n) is nonnegative-definite and therefore is a valid correlation matrix. It is, for instance, the correlation matrix for a multinormal distribution. Specifically, write

Σ(ρ,n)=(1+(n1)ρ)Inρ(1ρ)(1+(n1)ρ)11

for the inverse of C(ρ,n) when 1/(n1)<ρ<1. For example, when n=3

Σ(ρ,3)=1(1ρ)(1+2ρ)(ρ+1ρρρρ+1ρρρρ+1).

Let the vector of random variables (X1,X2,,Xn) have distribution function

fρ,n(x)=exp(12xΣ(ρ,n)x)(2π)n/2((1ρ)n1(1+(n1)ρ))1/2

where x=(x1,x2,,xn). For example, when n=3 this equals

1(2π)3(1ρ)2(1+2ρ)exp((1+ρ)(x2+y2+z2)2ρ(xy+yz+zx)2(1ρ)(1+2ρ)).

The correlation matrix for these n random variables is C(ρ,n).

Figure

Contours of the density functions fρ,3. From left to right, ρ=4/10,0,4/10,8/10. Note how the density shifts from being concentrated near the plane x+y+z=0 to being concentrated near the line x=y=z.

The special cases ρ=1/(n1) and ρ=1 can also be realized by degenerate distributions; I won't go into the details except to point out that in the former case the distribution can be considered supported on the hyperplane x.1=0, where it is a sum of identically distributed mean-0 Normal distribution, while in the latter case (perfect positive correlation) it is supported on the line generated by 1, where it has a mean-0 Normal distribution.


More about non-degeneracy

A review of this analysis makes it clear that the correlation matrix C(1/(n1),n) has a rank of n1 and C(1,n) has a rank of 1 (because only one eigenvector has a nonzero eigenvalue). For n2, this makes the correlation matrix degenerate in either case. Otherwise, the existence of its inverse Σ(ρ,n) proves it is nondegenerate.


20

Your correlation matrix is

(1ρρρ1ρρρ1)

The matrix is positive semidefinite if the leading principal minors are all non-negative. The principal minors are the determinants of the "north-west" blocks of the matrix, i.e. 1, the determinant of

(1ρρ1)

and the determinant of the correlation matrix itself.

1 is obviously positive, the second principal minor is 1ρ2, which is nonnegative for any admissible correlation ρ[1,1]. The determinant of the entire correlation matrix is

2ρ33ρ2+1.

The plot shows the determinant of the function over the range of admissible correlations [1,1]. enter image description here

You see the function is nonnegative over the range given by @stochazesthai (which you could also check by finding the roots of the determinantal equation).


Aren't we assuming in your answer that Var()=1? Why can we?
An old man in the sea.

1
@Anold You seem to be reading "covariance" where "correlation" is written.
whuber

6

There exist random variables X, Y and Z with pairwise correlations ρXY=ρYZ=ρXZ=ρ if and only if the correlation matrix is positive semidefinite. This happens only for ρ[12,1].


2
can you explain this in very simple terms.
Elizabeth Susan Joseph

1
I don't think there exists an explanation that does not require the knowledge of matrix algebra. I suggest you to look at the Wikipedia page (en.wikipedia.org/wiki/…).
stochazesthai

4
I found an explanation that requires only basic (high school level) algebra and have included that in my answer.
whuber
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.