상관 관계가 높은 두 개의 예측 변수 가 있고 둘 다 중심이 있고 스케일이 있다고 가정합니다 (0은 분산 1). 그런 다음 매개 변수 벡터의 릿지 페널티는 β 2 1 + β 2 2 이며 올가미 페널티 항은 ∣ β 1 ∣ + ∣ β 2 ∣ 입니다. 이제 모형이 고도로 동일 선상에 있다고 가정하기 때문에 , Y 를 예측할 때 x 와 z가 서로를 대체 할 수 있도록 x , z 의 많은 선형 조합은 단순히 부분적으로 자막을 형성합니다.x , zβ21+ β22∣ β1∣ + ∣ β2∣엑스지와이x , z 경우 z 는 예측 변수와 매우 유사하게 작동합니다 (예 : 0.2 x + 0.8 x , 0.3 x + 0.7 z 또는 0.5 x + 0.5 z).엑스지0.2 X + 0.8 ~ X , 0.3 X + 0.7 Z0.5 X + 0.5 Z예측 변수와 거의 동일합니다. 이제이 세 가지 예를 살펴보십시오. 세 경우 모두의 올가미 페널티는 1이고, 릿지 페널티는 각각 0.68, 0.58, 0.5이므로 릿지 페널티는 올가미 페널티는 동일 선상 변수의 가중치를 선호합니다 선택할 수 없습니다. 이것은 능선 (또는 일반적으로 올가미와 능선의 선형 조합 인 탄성 그물)이 동일 선상 예측 변수에서 더 잘 작동하는 한 가지 이유입니다. 데이터가 동일 선상 예측 변수의 서로 다른 선형 조합 중에서 선택할 이유가 거의 없다면 올가미는 능선이 동일한 가중치를 선택하는 동안 "방황". 마지막 데이터는 향후 데이터와 함께 사용하기에 더 좋은 추측 일 수 있습니다! 그리고 이것이 현재 데이터와 일치하는 경우 능선의 더 나은 결과로 교차 유효성 검사에 나타날 수 있습니다.
우리는 이것을 베이지안 방식으로 볼 수 있습니다. 릿지와 올가미는 다른 사전 정보를 의미하며, 릿지가 암시하는 사전 정보는 그러한 상황에서 더 합리적인 경향이 있습니다. (이 설명은 Trevor Hastie, Robert Tibshirani 및 Martin Wainwright의 "통렬한 올가미와 일반화를 통한 통계 학습"이라는 책에서 어느 정도 배웠다. 그러나 지금은 직접적인 인용문을 찾을 수 없었다).