답변:
비정형 회귀 분석에서 매개 변수 공간에 능선 *을 얻을 수 있는데,이 능선을 따라 다양한 값이 모두 최소 제곱 기준에서 거의 또는 거의 동일하게 적용됩니다.
* (적어도, 그것은에서 능선의 우도 함수는 실제로있어 - 계곡 은 RSS 기준에 $를, 그러나 이것은 기존의 것으로 보인다 나는 능선을 전화를 계속합니다 - 알렉시스 점으로, 짝수 또는 의견에서, 나는 계곡의 산마루의 대응 물 인 thalweg 이라고 부를 수 있다)
모수 공간에서 최소 제곱 기준에 능선이있는 경우, 능선 회귀로 인한 페널티는 모수가 원점에서 멀어짐에 따라 기준을 위로 밀어 해당 능선을 제거합니다.
[ 선명한 이미지 ]
첫 번째 플롯에서, 능선을 따라 매개 변수 값이 크게 변경되면 RSS 기준에서 약간의 변화가 발생합니다. 이로 인해 수치가 불안정해질 수 있습니다. 작은 변경 (예 : 데이터 값의 작은 변경, 잘림 또는 반올림 오류)에 매우 민감합니다. 모수 추정치는 거의 완벽하게 상관되어 있습니다. 크기가 매우 큰 모수 추정값을 얻을 수 있습니다.
반대로, 매개 변수가 0에서 멀어 질 때 능선 회귀가 최소화하는 것 ( 페널티 를 추가하여)을 작은 반올림 또는 잘림 오류와 같은 조건의 작은 변화로 인해 결과에 큰 변화가 발생하지 않습니다. 추정치. 페널티 항은 0쪽으로 축소됩니다 (일부 편차가 발생 함). 소량의 바이어스는 (리지를 제거함으로써) 분산의 실질적인 개선을 구입할 수 있습니다.
추정치의 불확실성이 감소된다 (표준 오차는 2 차 도함수와 반비례하며 페널티에 의해 더 커짐).
모수 추정치의 상관 관계가 줄어 듭니다. 작은 매개 변수에 대한 RSS가 더 나쁘지 않은 경우에는 크기가 매우 큰 매개 변수 추정값을 얻을 수 없습니다.
Glen_b의 그림과 Ridge 견적 도구에 대한 통계 설명에 +1. OP의 질문 1)과 2)에 답하는 Ridge 회귀에 순수 수학 (선형 대수) pov를 추가하고 싶습니다.
먼저 는 대칭 양의 반정의 행렬- 표본 공분산 행렬의 배입니다. 따라서 고유 분해됩니다p × p n
이제 행렬 반전은 고유 값의 반전에 대응하므로 OLS 추정기는 ( )를 필요로합니다. 분명히 이것은 모든 고유 값이 엄격하게 0보다 큰 경우에만 작동합니다 ( . 를 들어 이 불가능하다; 대한 이이었다 우리가 보통에 관심을 - 그것은 일반적으로 사실이다 다중 공선 .
통계 학자로서 우리는 데이터 작은 변동 이 추정치를 어떻게 변화시키는 지 알고 싶어합니다 . 어떤에서 작은 변화 것이 분명하다 거대한 변화에 이르게 경우 매우 작습니다.
릿지 회귀가하는 것은 모든 고유 값을 0에서 멀어지게 이동하는 것입니다.
수치 안정성은 고유 값에 양의 상수를 추가 한 결과이므로 0으로의 수축과 관련이 있습니다. 의 작은 변동 이 역수를 너무 많이 변경하지 않기 때문에 더 안정적입니다 . 그 부근에 그 수축 이제 이후 항이 곱해 역 고유치와 OLS 용액보다 제로에 가까운 .0 V - 1 X ' , Y 1 / ( D는 전 + λ ) 1 / D