(이것은 Granger & Newbold (1986) "Forecasting Economic Time Series"에서 채택한 것입니다).
구성 상 오류 비용 함수 는 입니다. 여기에는 오류 가정 함수가 0에 대해 대칭이라는 중요한 가정이 통합되어 있습니다. 즉, 다른 오류 비용 함수는 예상 값의 과 같은 조건부 기대 값을 가질 필요는 없습니다 . 알 수없는 수량이 포함되어있어 오류 비용 함수를 최소화 할 수 없습니다. 따라서 예상 값을 최소화하기로 결정했습니다. 그러면 목적 함수가됩니다 인수분[ Y− g( X) ]2인수min
E[Y−g(X)]2=∫∞−∞[y−g(X)]2fY|X(y|x)dy
두 번째 질문에 대한 답도 믿습니다. 예상 값이 될 것이라는 점을 직관적으로 조건부 우리가 / 예측 예측하려고하기 때문에, 기반으로 . 구하기 위해 정사각형을 분해X Y XYXYX
E[Y−g(X)]2=∫∞−∞y2fY|X(y|x)dy−2g(X)∫∞−∞yfY|X(y|x)dy+[g(X)]2∫∞−∞fY|X(y|x)dy
첫 번째 항은 포함 하지 않으므로 최소화에 영향을 미치지 않으며 무시할 수 있습니다. 두 번째 항의 적분은 주어진 의 조건부 예상 값 과 같고 마지막 항의 적분은 유니티와 같습니다. 그래서Y Xg(X)YX
argming(x)E[Y−g(X)]2=argming(x){−2g(X)E(Y∣X)+[g(X)]2}
1 차 미분 wrt 는 로 최소화 대한 1 차 조건을 하지만 2 차 미분은 같습니다 이상으로 충분합니다.− 2 E ( Y ∣ X ) + 2 g ( X ) g ( X ) = E ( Y ∣ X ) 2 > 0g(X)−2E(Y∣X)+2g(X)g(X)=E(Y∣X)2>0
부록 : "추가 및 빼기"증명 접근 방식의 논리.
OP는 질문에 명시된 접근 방식에 의문을 제기합니다. 더하기와 빼기의 전술을 사용하여 더하거나 빼는 항의 임의 선택에 대해 목적 함수 의 특정 부분 을 0으로 만들지 만 , 값 함수 , 즉 목표 값을 같게하지 않습니다. 후보 최소화 기에서 평가 된 기능.
선택을 위해 우리는 가치 함수가
임의의 선택 경우 값 함수 .V ( E ( Y ∣ X ) ) = E [ ( Y - E ( Y ∣ X ) ) 2 ∣ X ] g ( X ) = h ( X ) V ( h ( X ) ) = E [ ( Y - h (g(X)=E(Y∣X)V(E(Y∣X))=E[(Y−E(Y∣X))2∣X]g(X)=h(X)V(h(X))=E[(Y−h(X))2∣X]
나는 그것을 주장한다
⇒ E ( Y 2 ∣ X ) − 2 E [ ( Y E ( Y ∣ X ) ) ∣ X ] + E [ ( E ( Y ∣ X) ) ) 2 ∣ X ]
V(E(Y∣X))≤V(h(X))
⇒E(Y2∣X)−2E[(YE(Y∣X))∣X]+E[(E(Y∣X))2∣X]≤E(Y2∣X)−2E[(Yh(X))∣X]+E[(h(X))2∣X]
LHS 및 RHS의 첫 번째 기간이 취소됩니다. 또한 외부 기대 값은 에 대한 조건부입니다 . 조건부 기대의 속성으로 우리는 결국X
...⇒−2E(Y∣X)⋅E(Y∣X)+[E(Y∣X)]2≤−2E(Y∣X) h ( X) + [ h ( X) ]2
⇒ 0 ≤ [ E( Y∣ X) ]2− 2 E( Y∣ X) h ( X) + [ h ( X) ]2
⇒ 0 ≤ [ E( Y∣ X) - H ( X ) ]2
경우 엄격한 부등식을 유지 합니다. 따라서 는 세계적이고 독특한 최소화 기입니다.
E ( Y ∣ X )h ( x ) ≠ E( Y∣ X)이자형( Y∣ X)
그러나 이것은 또한 "추가 및 빼기"접근법이 여기에서 가장 훌륭한 증거 방법이 아니라고 말합니다.