통계 학습 입문의 223 페이지 에서 저자는 능선 회귀와 올가미의 차이점을 요약합니다. 그것들은 "lasso가 치우침, 분산 및 MSE 측면에서 능선 회귀를 능가하는 경향이있는"예를 보여줍니다 (그림 6.9).
올가미가 바람직한 이유를 이해합니다. 많은 계수를 0으로 축소하여 단순하고 해석 가능한 모델로 스파 스 솔루션을 생성합니다. 그러나 예측 만 관심이있을 때 능선을 능가하는 방법을 이해하지 못합니다 (즉, 예제에서 MSE가 어떻게 더 낮습니까?).
능선을 사용하면 많은 예측 변수가 반응에 거의 영향을 미치지 않으면 (몇 개의 예측 변수가 큰 영향을 미침) 계수가 단순히 0에 매우 가까운 작은 숫자로 축소되지 않습니다. ? 그렇다면 왜 최종 모델이 올가미보다 성능이 좋지 않습니까?