Jun Shao는 그의 논문 인 Cross-Validation에 의한 Linear Model Selection 에서 다변량 선형 회귀 분석에서 변수 선택 문제에 대해 LOOCV (Leave-One-Out Cross Validation) 방법이 '무증상 일관성이 없음'을 보여줍니다. 일반 영어에서는 변수가 너무 많은 모델을 선택하는 경향이 있습니다. 시뮬레이션 연구에서 Shao는 40 개의 관측치조차도 LOOCV가 다른 교차 검증 기술보다 성능이 떨어질 수 있음을 보여줍니다.
이 논문은 다소 논란의 여지가 있고 다소 무시됩니다 (출판 후 10 년이 지난 저의 화학 계측 동료들은 그 소식을 들어 본 적이없고 변수 선택을 위해 LOOCV를 행복하게 사용하고있었습니다 ...). 또한 그 결과가 원래의 제한된 범위를 넘어서 확장된다는 믿음이 있습니다 (저는 유죄입니다).
문제는 다음과 같습니다.이 결과는 얼마나 멀리 확장됩니까? 다음 문제에 적용 할 수 있습니까?
- 로지스틱 회귀 / GLM에 대한 변수 선택?
- Fisher LDA 분류를위한 변수 선택?
- 유한 한 (또는 무한한) 커널 공간을 가진 SVM을 사용한 변수 선택?
- 분류에서 모델 비교, 다른 커널을 사용하는 SVM?
- 선형 회귀 모형의 비교, MLR과 릿지 회귀 비교
- 기타