반복 된 기대 법칙의 일반화


43

나는 최근에이 정체성을 발견했다.

E[E(Y|X,Z)|X]=E[Y|X]

물론 그 규칙의 더 간단한 버전, 즉 익숙 E[E(Y|X)]=E(Y)하지만 일반화에 대한 정당성을 찾을 수 없었습니다.

누군가가 그 사실에 대한 기술이 아닌 참조를 지적 할 수 있다면, 또는 누군가 가이 중요한 결과에 대한 간단한 증거를 제시 할 수 있다면 더 좋을 것입니다.


2
y 자체가 일부 조절 되었다면 x이것이 더 간단한 버전에서 정확하게 떨어지지 않습니까?
Mehrdad

답변:


36

비공식 치료

우리는 임의의 변수를 조건으로하는 표기법이 경제적이지만 표기법으로 부정확하다는 것을 기억해야합니다. 실제로 우리는 이러한 임의의 변수가 생성하는 시그마 대수를 조건으로합니다. 즉 E[YX] 평균을 의미 E[Yσ(X)] . 이 비고는 "비공식 처리"에서 적절하지 않은 것처럼 보일 수 있지만, 우리의 컨디셔닝 엔티티는 세트집합 이라는 것을 상기시킵니다 . 그리고이 세트에는 무엇이 포함되어 있습니까? 그들은 정보를 포함랜덤 변수 의 가능한 값 X 의 실현으로 일어날 수있는 일에 대해 우리에게 제공합니다 Y.
정보의 개념을 도입함으로써, 반복 기대 법칙 (때때로 "타워 속성"이라고도 함)을 매우 직관적 인 방법으로 생각하고 사용할 수 있습니다.
두 개의 임의 변수에 의해 생성 된 시그마 대수는 하나의 임의의 변수에 의해 생성 된 것보다 크다 : σ(X)σ(X,Z) . 이렇게 정보 에 대한 Y 포함 σ(X,Z) 는 적어도 의 해당 정보만큼 큽니다σ(X).
이제 표기법의 수 누대로σ(X)Ixσ(X,Z)Ixz . 그러면 우리가보고있는 방정식의 LHS를 쓸 수 있습니다.

구두로 우리가 위의 표현 묘사 : "{의 기대 값의 기대 무엇 Y 정보 제공 내가 X , Z 우리가 이용 가능한 정보가 주어진} 나는 X?"

E[E(Y|Ixz)|Ix]
YIxzIx

우리는 어떻게 든 "고려"할 수 ? 아니요 – 우리는 I x 만 알고 있습니다. 우리가 (우리는 우리가 해결하려는 식으로 의무로) 우리는 우리가 본질적에 대한 것을 말하고, 무엇을 사용한다면 Y 기대 연산자 아래를, 우리가 말할 즉 없습니다 " E ( Y가 | 내가 X ) 더 이상"- 우리는 방금 정보를 다 써버 렸습니다.IxzIxYE(YIx)

따라서

E[E(Y|Ixz)|Ix]=E(Y|Ix)

다른 사람이 그렇지 않으면 정식 치료를 위해 돌아옵니다.

정식 치료

P. Billingsley의 확률과 측정 (3d ed.-1995)과 D. Williams "Martingales의 확률"(1991)이라는 두 가지 매우 중요한 확률 이론에 관한 책이 어떻게 "반복 된 기대의 법칙"을 입증하는 문제를 다루는 지 살펴 보자.
Billingsley는 증거에 정확히 세 줄을 바칩니다. 윌리엄스와 나는 인용한다.

"(타워 속성)은 조건부 기대의 정의와 거의 즉각적입니다."

그것은 한 줄의 텍스트입니다. Billingsley의 증거는 덜 불투명하지 않습니다.

조건부 기대의 중요하고 매우 직관적 인 속성은 본질적으로 그 정의에서 직접적으로 (그리고 거의 즉시) 파생됩니다. 유일한 문제는,이 정의가 일반적으로 확률 밖에서 가르치지 않거나 적어도 강조 표시되지 않는다는 것입니다. 이론적 원을 측정 할 수도 있습니다. 그러나 반복 된 기대 법칙이 보유하고있는 (거의) 세 줄을 나타내려면 조건부 기대의 정의 또는 정의 속성이 필요 합니다.

확률 공간 과 적분 랜덤 변수 Y를 보자 . 하자 G는 서브 수 σ -algebra의 F , GF를 . 그러면이 함수 존재 WG , -measurable를 적분하고 (이것은 정의 속성이다)(Ω,F,P)YGσFGFWG

E(W1G)=E(Y1G)GG[1]

여기서 는 세트 G 의 표시기 기능입니다 . 우리는 WG가 주어지면 Y 의 조건부 기대 값 이라고 말하고 W = E ( Y G ) 라고 씁니다. 1GGWYG 여기서 주목해야 할 중요한 세부 사항으로 조건부 기대, 같은 기대 값을 가지고 있다는 것입니다 Y는 전체에 걸쳐뿐만 아니라, 않습니다 G ,하지만 모든 부분 집합 G G .W=E(YG)a.s.
YGGG

(이제 Tower 속성이 조건부 기대의 정의에서 파생되는 방법을 제시하려고 노력할 것입니다).

G- 측정 가능한 랜덤 변수입니다. 그런 다음 일부 σ- 대수를고려하십시오 ( HG) . 그런 다음 G HG G 입니다. 그래서, 이전과 같은 유사한 방식으로, 우리의 조건부 기대가 W 주어진 H는 말할 U 것은 = E ( W | H )WGσHGGHGGWH그 특징은 U=E(WH)a.s.

E(U1G)=E(W1G)GH[2]

이후 , 방정식 [ 1 ][ 2 ] 우리에게HG[1][2]

E(U1G)=E(Y1G)GH[3]

그러나 이것은 H가 주어진 에 대한 조건부 기대의 정의 속성입니다 . YH따라서 우리는 U = E ( Y H ) 라고 쓸 수 있습니다 우리 구성하여도 갖기 때문에 U = E ( W | H ) = E ( E [ Y | G ] | H ) - 팔 개 라인에서는 단지 탑 속성이나 법률이 Iterated의 기대의 일반적인 형태를 증명했다.U=E(YH)a.s.
U=E(WH)=E(E[YG]H)


6
(+1) 추상적이고 어려운 개념을 설명하는 데 유용한 방법입니다. 그러나 나는 "... 더 크지 않다 ..."라는 문구는 "작지 않다"고 생각합니다. 약해 그 섹션에 대한 정보 그래서 하나 개의 랜덤 변수에 의해 발생 된 큰로서 적어도 .. 두 가지 변수에 의해 생성 된 시그마 대수는 "에서와 같이, 원판을 제거하고 병렬 구조를 사용하여 명확하게 이루어질 수 포함 에서 σ ( X , Z는 ) 로서 적어도 뛰어나며 등의 대응 정보 σ ( X ) . " Yσ(X,Z)σ(X)
whuber

cc @whuber 감사합니다. 이것은 매우 유용한 정리입니다.
JohnK

@ whuber이 점을 발견하고 제안 해 주셔서 감사합니다.
Alecos Papadopoulos

24

조건부 기대를 이해하고 학생들을 가르치는 방법은 다음과 같습니다.

조건부 기대 는 해상도 σ ( X ) 의 카메라로 촬영 한 사진입니다E[Y|σ(X)]σ(X)

Alecos Papadopoulos가 언급했듯이, 표기법 E [ Y | X ] . 카메라 라인을 따라 Y 를 풍경, 풍경과 같은 원래의 대상으로 생각할 수 있습니다 . E [ Y | σ ( X , Z ) ] 는 해상도 σ ( X , Z ) 의 카메라로 찍은 사진입니다E[Y|σ(X)]E[Y|X]YE[Y|σ(X,Z)]σ(X,Z). 기대는 평균화 연산자 ( "흐리게하기"연산자?)입니다. scenary에는 많은 물건이 들어있을 수 있지만 해상도가 낮은 카메라를 사용하여 찍은 사진은 확실히 세부 사항이 사라질 것입니다. 예를 들어 육안으로 볼 수있는 하늘에는 UFO가있을 수 있지만 그렇지 않습니다. 촬영 한 사진에 (iphone 3?)

만큼 해상도가 너무 높으면 이 그림은 실제 풍경의 모든 세부 사항을 캡처 할 수 있습니다. 이 경우 E [ Y | σ ( Y ) ] = Y .σ(X,Z)=σ(Y)E[Y|σ(Y)]=Y

이제 는 다음과 같이 볼 수 있습니다 : σ ( X , Z ) (예 : iphone 3) 보다 낮은 해상도 σ ( X ) (예 : iphone 1)를 가진 다른 카메라를 사용하여 해상도가 σ ( X , Z )카메라 라면E[E[Y|σ(X,Z)]|σ(X)]σ(X)σ(X,Z)σ(X,Z)사진의이 사진은 원래 풍경에서 해상도 가 낮은 카메라를 사용하는 것과 동일해야합니다 .σ(X)

이것은 . 사실이 같은 직관은 우리에게 E [ E [ Y | X ] | X , Z ] = E [ Y | X ]E[E[Y|X,Z]|X]=E[Y|X]E[E[Y|X]|X,Z]=E[Y|X]아직도. 첫 번째 사진을 iphone 1 (즉, 저해상도)로 촬영 한 후 더 나은 카메라 (예 : iphone 3)를 사용하여 첫 번째 사진에 다른 사진을 생성하려는 경우에는 방법이 없습니다. 첫 번째 사진의 품질을 향상시킬 수 있습니다.


2
그것을 사랑하십시오! :) 좋은 설명.
jessica

1
@jessica 내가 도움이 기뻐요 :-) 그것은이 설명과 함께 올 걸 렸어요
KevinKim

21

반복 기대 법칙 (LIE)에서, , 내부 기대 값은 랜덤 변수 가 아니라 X 의 함수 가되는 랜덤 변수 이며 , g ( X ) 는 아닙니다. Y의 기능 . X 의이 기능에 대한 기대가 Y에 대한 기대와 동일하다는 것은 LIE의 결과입니다. 이 모든 것은 수작업 으로 평균화 하여 Y 의 평균값을 찾을 수 있다는 주장입니다.E[E[YX]]=E[Y]Xg(X)YXYY다양한 조건 에서 의 평균값 . 사실상, 그것은 총 확률 법칙의 직접적인 결과 일뿐입니다. 예를 들어, XY 가 결합 pmf p X , Y ( x , y ) 인 이산 랜덤 변수 인 경우 E [ Y ]YXYpX,Y(x,y) 마지막 기대에 대한 통지 방법X를; E[Y|X는]의 함수 인X하지으로,Y, 그럼에도 불구하고 그 평균의 평균과 동일Y.

E[Y]=yypY(y)definition=yyxpX,Y(x,y)write in terms of joint pmf=yyxpYX(yX=x)pX(x)write in terms of conditional pmf=xpX(x)yypYX(yX=x)interchange order of summation=xpX(x)E[YX=x]inner sum is conditional expectation=E[E[YX]]RV E[YX] has value E[YX=x] when X=x
XE[YX]XYY

사용자가보고있는 것이 일반화 LIE 왼쪽에 보유 있는 내측 기대 함수 인 H ( X , Z ) 확률 변수 XZ는 . 인수는 위에서 설명한 것과 비슷하지만 이제 임의 변수 E [ Y X ]가 다른 임의 변수와 같다는 것을 보여 주어야 합니다. 우리는 E [ Y 의 가치를보고E[E[YX,Z]X]h(X,Z)XZ E[YX] X는 값이 일어나는 X를 . 설명을 생략하면 E [ Y X = x ]E[YX]Xx 두 번째 오른쪽은 랜덤 변수E[YX,Z]조건부 기대 값에대한 공식입니다(XZ의 함수). X값으로조절됩니다. 우리는X에 값x를 갖도록랜덤 변수E[YX의 값을 곱하여고정합니다

E[YX=x]=yypYX(yX=x)=yypX,Y(x,y)pX(x)=yyzpX,Y,Z(x,y,z)pX(x)=yyzpYX,Z(yX=x,Z=z)pX,Z(x,z)pX(x)=zpX,Z(x,z)pX(x)yypYX,Z(yX=x,Z=z)=zpZX(zX=x)yypYX,Z(yX=x,Z=z)=zpZX(zX=x)E[YX=x,Z=z)=E[E[YX,Z]X=x]
E[YX,Z]XZXXx 바이조건의 PMF 값 Z 주어진 X , 이러한 모든 조건을 합산.E[YX,Z]ZX

따라서, 각각의 값에 대해 랜덤 변수의 X , 랜덤 변수의 값 E [ Y | X ] (앞서 언급 한 함수 X ,하지의 Y는 ) 랜덤 변수의 값과 동일 E [ E [ Y X , Z ] X ] 즉,이 두 랜덤 변수는 같습니다. 내가 당신에게 거짓말을 하시겠습니까?xXE[YX]XYE[E[YX,Z]X]

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.