만약 와 있습니다 나는 것을 보여줄 수있는 방법 만이 개 가능한 상태를 취할 수있는 두 개의 확률 변수, 독립을 의미? 이 독립성을 의미하지 않는 날에 배운 것에 반하는 이런 종류의 ...
힌트는 가능한 상태로 과 으로 시작하여 거기에서 일반화한다고 말합니다. 그리고 나는 그것을 할 수 있고 보여줄 수 있지만 이것은 독립성을 의미하지는 않습니까 ???
수학적 으로이 작업을 수행하는 방법을 혼란스럽게 생각합니다.
만약 와 있습니다 나는 것을 보여줄 수있는 방법 만이 개 가능한 상태를 취할 수있는 두 개의 확률 변수, 독립을 의미? 이 독립성을 의미하지 않는 날에 배운 것에 반하는 이런 종류의 ...
힌트는 가능한 상태로 과 으로 시작하여 거기에서 일반화한다고 말합니다. 그리고 나는 그것을 할 수 있고 보여줄 수 있지만 이것은 독립성을 의미하지는 않습니까 ???
수학적 으로이 작업을 수행하는 방법을 혼란스럽게 생각합니다.
답변:
이진 변수의 경우 예상 값은 1과 같을 확률과 같습니다. 따라서,
두 제로 공분산 수단이있는 경우 수단
독립 사건에 대한 기본 규칙을 사용하여 (예 : 와 B 가 독립하고 그 상보가 독립 등) 다른 모든 공동 확률도 곱하는 것을 보는 것은 사소한 일입니다. 두 개의 임의 변수 중 독립적입니다.
Both correlation and covariance measure linear association between two given variables and it has no obligation to detect any other form of association else.
So those two variables might be associated in several other non-linear ways and covariance (and, therefore, correlation) could not distinguish from independent case.
As a very didactic, artificial and non realistic example, one can consider such that for and also consider . Notice that they are not only associated, but one is a function of the other. Nonetheless, their covariance is 0, for their association is orthogonal to the association that covariance can detect.
EDIT
Indeed, as indicated by @whuber, the above original answer was actually a comment on how the assertion is not universally true if both variables were not necessarily dichotomous. My bad!
So let's math up. (The local equivalent of Barney Stinson's "Suit up!")
두 경우 및 Y는 이분법 있었다 그럼 모두 값만한다고 가정, 일반성의 손실없이, 취할 수 0 및 1 , 임의의 확률로 , P , Q를 그리고 r에 의해 제공된 P ( X = 1 ) = P ∈ [ 0 , 1 ] P ( Y = 1 ) = q ∈ [ 0 , 1 ] P ( X = 1 , Y 완전히 공동 분포를 특성화하는
Notice that might be equal to the product , which would render and independent, since
Yes, might be equal to , BUT it can be different, as long as it respects the boundaries above.
Well, from the above joint distribution, we would have
Now, notice then that and are independent if and only if . Indeed, if and are independent, then , which is to say . Therefore, ; and, on the other hand, if , then , which is to say . Therefore, and are independent.
About the without loss of generality clause above, if and were distributed otherwise, let's say, for and ,
Also, we would have
=D
IN GENERAL:
The criterion for independence is . Or
This is nicely explained by Macro here, and in the Wikipedia entry for independence.
, yet
Great example: , and Covariance is zero (and , which is the criterion for orthogonality), yet they are dependent. Credit goes to this post.
IN PARTICULAR (OP problem):
These are Bernoulli rv's, and with probability of success , and .
This is equivalent to the condition for independence in Eq.
:
: by LOTUS.
As pointed out below, the argument is incomplete without what Dilip Sarwate had pointed out in his comments shortly after the OP appeared. After searching around, I found this proof of the missing part here:
If events and are independent, then events and are independent, and events and are also independent.
Proof By definition,
and are independent
But , so , which yields:
Repeat the argument for the events and this time starting from the statement that and are independent and taking the complement of
Similarly. and are independent events.
So, we have shown already that