회귀 모델에 대한 과정을 밟고 있으며 선형 회귀에 제공되는 속성 중 하나는 절편이 포함될 때 잔차가 항상 0이된다는 것입니다.
왜 이런 경우에 대한 좋은 설명을 제공 할 수 있습니까?
회귀 모델에 대한 과정을 밟고 있으며 선형 회귀에 제공되는 속성 중 하나는 절편이 포함될 때 잔차가 항상 0이된다는 것입니다.
왜 이런 경우에 대한 좋은 설명을 제공 할 수 있습니까?
답변:
다소 직관적 인 설명을 찾고 있다면.
어떤 의미에서, 선형 회귀 모델은 멋진 의미에 지나지 않습니다. 일부 값 x 1 , x 2 , … , x n 에서 산술 평균 를 구하기 위해 모든 편차의 합 (각 편차가 u i = x i − ˉ x)의 평균값 오른쪽은 해당 평균의 왼쪽에있는 모든 편차의 합과 같습니다. 표본의 평균을 설명하는 가장 좋은 방법은 물론이 방법이 좋은 이유는 없지만 직관적이고 실용적입니다. 중요한 점은 이런 식으로 산술 평균을 정의함으로써 일단 산술 평균을 구성한 후에는 그 평균에서 모든 편차가 정의에 의해 0으로 합쳐 져야한다는 것입니다.
선형 회귀 분석에서 이것은 다르지 않습니다. 적합치 (회귀선에 있음)와 선 위에 있는 실제 값 사이의 모든 차이의 합이 회귀선과 아래 의 모든 값 사이의 모든 차이의 합과 정확히 일치하도록 선을 적합시킵니다 . 선. 다시 말하지만, 왜 이것이 이것이 적합을 구성하는 가장 좋은 방법인지는 내재 된 이유가 없지만 간단하고 직관적으로 매력적입니다. 산술 평균과 마찬가지로 :이 방법으로 피팅 된 값을 구성하면 구성에 따라 해당 라인과의 모든 편차가 0으로 합쳐 져야합니다. 그렇지 않으면 OLS 리지 션이 아닙니다.