답변:
비공식 치료
우리는 임의의 변수를 조건으로하는 표기법이 경제적이지만 표기법으로 부정확하다는 것을 기억해야합니다. 실제로 우리는 이러한 임의의 변수가 생성하는 시그마 대수를 조건으로합니다. 즉 평균을 의미 . 이 비고는 "비공식 처리"에서 적절하지 않은 것처럼 보일 수 있지만, 우리의 컨디셔닝 엔티티는 세트 의 집합 이라는 것을 상기시킵니다 . 그리고이 세트에는 무엇이 포함되어 있습니까? 그들은 정보를 포함랜덤 변수 의 가능한 값 은 의 실현으로 일어날 수있는 일에 대해 우리에게 제공합니다 .
정보의 개념을 도입함으로써, 반복 기대 법칙 (때때로 "타워 속성"이라고도 함)을 매우 직관적 인 방법으로 생각하고 사용할 수 있습니다.
두 개의 임의 변수에 의해 생성 된 시그마 대수는 하나의 임의의 변수에 의해 생성 된 것보다 크다 : . 이렇게 정보 에 대한 포함 는 적어도 의 해당 정보만큼 큽니다.
이제 표기법의 수 누대로 및 . 그러면 우리가보고있는 방정식의 LHS를 쓸 수 있습니다.
구두로 우리가 위의 표현 묘사 : "{의 기대 값의 기대 무엇 Y 정보 제공 내가 X , Z 우리가 이용 가능한 정보가 주어진} 나는 X 만?"
우리는 어떻게 든 "고려"할 수 ? 아니요 – 우리는 I x 만 알고 있습니다. 우리가 (우리는 우리가 해결하려는 식으로 의무로) 우리는 우리가 본질적에 대한 것을 말하고, 무엇을 사용한다면 Y 기대 연산자 아래를, 우리가 말할 즉 없습니다 " E ( Y가 | 내가 X ) 더 이상"- 우리는 방금 정보를 다 써버 렸습니다.
따라서
다른 사람이 그렇지 않으면 정식 치료를 위해 돌아옵니다.
정식 치료
P. Billingsley의 확률과 측정 (3d ed.-1995)과 D. Williams "Martingales의 확률"(1991)이라는 두 가지 매우 중요한 확률 이론에 관한 책이 어떻게 "반복 된 기대의 법칙"을 입증하는 문제를 다루는 지 살펴 보자.
Billingsley는 증거에 정확히 세 줄을 바칩니다. 윌리엄스와 나는 인용한다.
"(타워 속성)은 조건부 기대의 정의와 거의 즉각적입니다."
그것은 한 줄의 텍스트입니다. Billingsley의 증거는 덜 불투명하지 않습니다.
조건부 기대의 중요하고 매우 직관적 인 속성은 본질적으로 그 정의에서 직접적으로 (그리고 거의 즉시) 파생됩니다. 유일한 문제는,이 정의가 일반적으로 확률 밖에서 가르치지 않거나 적어도 강조 표시되지 않는다는 것입니다. 이론적 원을 측정 할 수도 있습니다. 그러나 반복 된 기대 법칙이 보유하고있는 (거의) 세 줄을 나타내려면 조건부 기대의 정의 또는 정의 속성이 필요 합니다.
확률 공간 과 적분 랜덤 변수 Y를 보자 . 하자 G는 서브 수 σ -algebra의 F , G ⊆ F를 . 그러면이 함수 존재 W 인 G , -measurable를 적분하고 (이것은 정의 속성이다)
여기서 는 세트 G 의 표시기 기능입니다 . 우리는 W 가 G가 주어지면 Y 의 조건부 기대 값 이라고 말하고 W = E ( Y ∣ G ) 라고 씁니다.
여기서 주목해야 할 중요한 세부 사항으로 조건부 기대, 같은 기대 값을 가지고 있다는 것입니다 Y는 전체에 걸쳐뿐만 아니라, 않습니다 G ,하지만 모든 부분 집합 G 의 G .
(이제 Tower 속성이 조건부 기대의 정의에서 파생되는 방법을 제시하려고 노력할 것입니다).
는 G- 측정 가능한 랜덤 변수입니다. 그런 다음 일부 σ- 대수를고려하십시오 ( H ⊆ G) . 그런 다음 G ∈ H ⇒ G ∈ G 입니다. 그래서, 이전과 같은 유사한 방식으로, 우리의 조건부 기대가 W 주어진 H는 말할 U 것은 = E ( W | H )그 특징은
이후 , 방정식 [ 1 ] 및 [ 2 ] 우리에게
그러나 이것은 H가 주어진 에 대한 조건부 기대의 정의 속성입니다 . 따라서 우리는 U = E ( Y ∣ H ) 라고 쓸 수 있습니다
우리 구성하여도 갖기 때문에 U = E ( W | H ) = E ( E [ Y | G ] | H ) - 팔 개 라인에서는 단지 탑 속성이나 법률이 Iterated의 기대의 일반적인 형태를 증명했다.
조건부 기대를 이해하고 학생들을 가르치는 방법은 다음과 같습니다.
조건부 기대 는 해상도 σ ( X ) 의 카메라로 촬영 한 사진입니다
Alecos Papadopoulos가 언급했듯이, 표기법 가 E [ Y | X ] . 카메라 라인을 따라 Y 를 풍경, 풍경과 같은 원래의 대상으로 생각할 수 있습니다 . E [ Y | σ ( X , Z ) ] 는 해상도 σ ( X , Z ) 의 카메라로 찍은 사진입니다. 기대는 평균화 연산자 ( "흐리게하기"연산자?)입니다. scenary에는 많은 물건이 들어있을 수 있지만 해상도가 낮은 카메라를 사용하여 찍은 사진은 확실히 세부 사항이 사라질 것입니다. 예를 들어 육안으로 볼 수있는 하늘에는 UFO가있을 수 있지만 그렇지 않습니다. 촬영 한 사진에 (iphone 3?)
만큼 해상도가 너무 높으면 이 그림은 실제 풍경의 모든 세부 사항을 캡처 할 수 있습니다. 이 경우 E [ Y | σ ( Y ) ] = Y .
이제 는 다음과 같이 볼 수 있습니다 : σ ( X , Z ) (예 : iphone 3) 보다 낮은 해상도 σ ( X ) (예 : iphone 1)를 가진 다른 카메라를 사용하여 해상도가 σ ( X , Z ) 인 카메라 라면사진의이 사진은 원래 풍경에서 해상도 가 낮은 카메라를 사용하는 것과 동일해야합니다 .
이것은 . 사실이 같은 직관은 우리에게 E [ E [ Y | X ] | X , Z ] = E [ Y | X ]아직도. 첫 번째 사진을 iphone 1 (즉, 저해상도)로 촬영 한 후 더 나은 카메라 (예 : iphone 3)를 사용하여 첫 번째 사진에 다른 사진을 생성하려는 경우에는 방법이 없습니다. 첫 번째 사진의 품질을 향상시킬 수 있습니다.
반복 기대 법칙 (LIE)에서, , 내부 기대 값은 랜덤 변수 가 아니라 X 의 함수 가되는 랜덤 변수 이며 , g ( X ) 는 아닙니다. Y의 기능 . X 의이 기능에 대한 기대가 Y에 대한 기대와 동일하다는 것은 LIE의 결과입니다. 이 모든 것은 수작업 으로 평균화 하여 Y 의 평균값을 찾을 수 있다는 주장입니다.다양한 조건 에서 의 평균값 . 사실상, 그것은 총 확률 법칙의 직접적인 결과 일뿐입니다. 예를 들어, X 와 Y 가 결합 pmf p X , Y ( x , y ) 인 이산 랜덤 변수 인 경우 E [ Y ] 마지막 기대에 대한 통지 방법X를; E[Y|X는]의 함수 인X하지으로,Y, 그럼에도 불구하고 그 평균의 평균과 동일Y.
사용자가보고있는 것이 일반화 LIE 왼쪽에 보유 있는 내측 기대 함수 인 H ( X , Z ) 의 두 확률 변수 X 및 Z는 . 인수는 위에서 설명한 것과 비슷하지만 이제 임의 변수 E [ Y ∣ X ]가 다른 임의 변수와 같다는 것을 보여 주어야 합니다. 우리는 E [ Y ∣ 의 가치를보고 때 X는 값이 일어나는 X를 . 설명을 생략하면 E [ Y ∣ X = x ] 두 번째 오른쪽은 랜덤 변수E[Y∣X,Z]의조건부 기대 값에대한 공식입니다(X와Z의 함수). X값으로조절됩니다. 우리는X에 값x를 갖도록랜덤 변수E[Y∣X의 값을 곱하여고정합니다
따라서, 각각의 값에 대해 랜덤 변수의 X , 랜덤 변수의 값 E [ Y | X ] (앞서 언급 한 함수 X ,하지의 Y는 ) 랜덤 변수의 값과 동일 E [ E [ Y ∣ X , Z ] ∣ X ] 즉,이 두 랜덤 변수는 같습니다. 내가 당신에게 거짓말을 하시겠습니까?