올가미 회귀 분석 경우 최상의 솔루션 (예 : 최소 테스트 오류)이 k 개의 피처를 선택한다고 가정합니다 . 그래서 \ 모자 {\ 베타가} ^ {올가미} = \ 좌측 (\ 모자 {\ 베타 _1} ^ {올가미} \ {모자 \ 베타 _2} ^ {올가미} ... \ 모자 {\ 베타} _k ^ {lasso}, 0, ... 0 \ right) .k는 β L S S O = ( β L S S O 1 , β L S S O 2 , . . . , β L
우리는 알고 A는 \ left (\ beta_1, \ beta_2, ..., \ beta_k \ right) 의 치우친 추정치 때문에 왜 우리는 왜 여전히 '합리적인'대신에 를 최종 해결책으로 삼 을까요 ? , 여기서 는 부분 모델 L ^ {new} (\ beta_ {1 : k}) = (X_ {1 : k} \ beta-y) '(X_ {1 : k 의 LS 추정치입니다 . } \ beta-y) . ( X_ {1 : k} 는 선택된 k 개의 기능에 해당하는 X 의 열을 나타냅니다 ).
간단히 말해서 왜 변수 선택 대신 (선택된 기능에 대한 추정값을 OLS로 남겨 두는 대신) 기능 선택과 매개 변수 추정에 모두 Lasso를 사용합니까?
(또한, '올가미 대부분에서 선택할 수있는 무엇을 의미 하는가 기능'? 샘플 크기입니다.)