다양한 모델 또는 포함 할 기능의 수를 선택하려고 할 때 예측이라고하면 두 가지 접근법을 생각할 수 있습니다.
- 데이터를 학습 및 테스트 세트로 분할하십시오. 더 나은 방법은 부트 스트랩 또는 k- 폴드 교차 검증을 사용하는 것입니다. 매번 훈련 세트를 훈련시키고 테스트 세트에 대한 오차를 계산하십시오. 테스트 오류 대 매개 변수 수를 플로팅합니다. 일반적으로 다음과 같은 것을 얻습니다.
- 모수 값을 통합하여 모형의 가능성을 계산합니다. 즉, 를 계산하고이를 매개 변수 수에 대해 플로팅합니다. 그런 다음 다음과 같은 것을 얻습니다.
그래서 내 질문은 :
- 이러한 접근 방식이이 문제를 해결하는 데 적합합니까 (모델에 포함 할 매개 변수 수 결정 또는 여러 모델 중에서 선택)?
- 그것들은 동등합니까? 아마 아닙니다. 특정 가정이나 실제 상황에서 동일한 최적의 모델을 제공합니까?
- 베이지안 모델 등에서 사전 지식을 지정하는 일반적인 철학적 차이 외에, 각 접근법의 장단점은 무엇입니까? 어느 것을 선택 하시겠습니까?
업데이트 : 또한 AIC와 BIC 비교에 관한 관련 질문 을 찾았습니다 . 내 방법 1은 AIC와 무증상이고 방법 2는 BIC와 무증상으로 보입니다. 그러나 나는 또한 BIC가 Leave-One-Out CV와 동일하다는 것을 읽었습니다. 이는 LOO CV가 K- 폴드 CV와 동일한 경우 훈련 오류 최소값과 베이지안 우도 최대 값이 동일 함을 의미합니다. Jun Shao 의 매우 흥미로운 논문 인“ 선형 모델 선택에 대한 점근 론 ”은 이러한 문제와 관련이 있습니다.