이 [외부 교차 검증] 출력에서 모델을 어떻게 선택합니까?
짧은 대답 : 그렇지 않습니다.
대접 내부 모델 피팅 절차의 일환으로 교차 검증을. 이는 하이퍼 파라미터의 피팅을 포함하는 피팅 (내부 교차 검증이 숨겨지는 곳)이 다른 모델 분석 루틴과 동일하다는 것을 의미합니다.
외부 교차 검증은이 모형 적합 접근법의 성능을 추정합니다. 이를 위해 일반적인 가정을 사용하십시오.
- 외부 대리 모델에 의해 만들어진 "진짜"모델에 해당합니다 모든 데이터.케이
model.fitting.procedure
- 또는 1. 고장 (리샘플링 검증의 비관적 편향)이 발생하는 경우, 적어도 외부 대리 모델이 서로 동등합니다.
이를 통해 테스트 결과를 풀링 (평균) 할 수 있습니다. 또한 기본적으로 동일하다고 가정하므로 선택하지 않아도됩니다. 이 두 번째 약한 가정의 세분화는 모델 불안정성입니다.케이
마십시오 하지 의 겉으로는 최고의 선택 대개 "수확"테스트 불확실성하고 낙관적 편견에 이르게 것이라고 - 대리 모델.케이
그러면 모델 선택에 중첩 CV를 어떻게 사용할 수 있습니까?
내부 CV 선택을한다.
K 모델에서 최고의 모델을 선택하는 것은 각 모델이 데이터 세트의 다른 부분에서 훈련되고 테스트 되었기 때문에 공정한 비교가 아닐 것입니다.
케이
- 동일한 테스트 데이터가없는 경우 : 나중에 테스트 결과가 일반 데이터를 보지 못하도록 일반화된다고 주장하기 때문에 차이가 없습니다.
- 동일한 교육 데이터가없는 경우 :
- 모델이 안정적인 경우에는 차이가 없습니다. 여기서 안정적이란 몇 가지 사례를 다른 사례로 대체하여 교육 데이터가 "교란"된 경우 모델이 많이 변경되지 않음을 의미합니다.
- 모델이 안정적이지 않으면 세 가지 고려 사항이 중요합니다.
- 케이
- 케이
- 불안정성이 실제 문제라면 "실제"모델의 성능을 잘 외삽 할 수 없습니다.
마지막 질문으로 안내합니다.
외부 K 접기에서 얻은 점수로 어떤 유형의 분석 / 확인을 수행 할 수 있습니까?
- 예측의 안정성 확인 (반복 / 반복 교차 검증 사용)
최적화 된 하이퍼 파라미터의 안정성 / 변형을 확인하십시오.
한 가지로, 산란 하이퍼 파라미터는 내부 최적화가 작동하지 않았 음을 나타낼 수 있습니다. 또 다른 방법으로, 향후 유사한 상황에서 고비용의 최적화 단계없이 하이퍼 파라미터를 결정할 수 있습니다. 비용이 많이 드는 계산 리소스는 아니지만 "정상"모델 매개 변수를 추정하는 데 더 잘 사용될 수있는이 "비용"정보를 말합니다.
선택한 모형의 내부 및 외부 추정값의 차이를 확인하십시오. 큰 차이가있는 경우 (내부가 지나치게 낙관적 임) 과적 합으로 인해 내부 최적화가 제대로 작동하지 않을 위험이 있습니다.
@ user99889의 질문을 업데이트하십시오. 외부 CV가 불안정성을 발견하면 어떻게해야합니까?
우선, 외부 CV 루프에서 모델이 안정적인 예측을 제공하지 않는다는 점을 감지하는 것은 사전 오류가 응용 프로그램에 비해 너무 높은 것을 감지하는 것과 실제로 다르지 않습니다. 모델 검증 (또는 검증)의 가능한 결과 중 하나는 우리가 보유한 모델이 목적에 맞지 않음을 암시합니다.
@davips에 대한 의견에서 나는 내부 CV 의 불안정성을 해결하려고 생각했습니다. 즉, 모델 최적화 프로세스의 일부입니다.
그러나 외부 CV의 결과를 바탕으로 모델을 변경하는 경우 변경된 모델에 대한 또 다른 독립적 인 테스트가 필요합니다.
그러나 외부 CV의 불안정성은 최적화가 제대로 설정되지 않았 음을 나타내는 신호이므로 외부 CV의 불안정성을 발견하면 내부 CV가 필요한 방식으로 불안정성을 페널티하지 않았 음을 의미합니다. 그러한 상황에서 비평. 다시 말해 최적화가 왜 모델을 과도하게 적합하게 만들 수 있습니까?
그러나 여기서 IMHO 는 정확한 상황 을 신중하게 고려한 후 "최종"모델의 추가 변경 을 용인 할 수 있다는 특이점이 있습니다 . 방향이어야 이하 overfitting (overfitting 또는 적은 경향이 상기 하이퍼 파라미터에서). 독립적 인 테스트의 포인트는 과적 합을 감지하는 것입니다. 과적 합은 훈련 과정에서 이미 사용 된 데이터로 감지 할 수 있습니다.
예를 들어 PLS 모델에서 잠재적으로 유사한 잠재적 변수의 수를 추가로 줄이는 것에 대해 이야기하고 있다면 제안 된 변경이 완전히 다른 유형의 모델 인 경우 SVM 대신 PLS라고 말하면 모든 베팅이 해제됩니다. ), 우리가 어쨌든 모델링의 중간 단계에 있다는 것을 알고 있다면 더 편할 것입니다. 결국 최적화 된 모델이 여전히 불안정하다면 더 많은 사례가 필요하다는 의문의 여지가 없습니다. 또한 많은 상황에서 결국 성능의 다양한 측면을 올바르게 테스트하도록 설계된 연구를 수행해야합니다 (예 : 미래에 수집 한 데이터에 대한 일반화). 그래도 전체 모델링 프로세스를보고해야하며 이러한 늦은 변경의 의미를 신중하게 논의해야한다고 주장합니다.
또한 이미 사용 가능한 결과를 통해 종합적인 아날로그 CV 추정값을 포함한 집계 가 가능할 것입니다. 이것은 여기서 양성 적이라고 생각할 모델의 다른 유형의 "후 처리"입니다. 그럼에도 불구하고, 연구가 처음부터 집계가 개별 예측에 비해 이점을 제공하지 않는지 확인하는 것이 더 나았을 것입니다 (이는 개별 모델이 안정적이라고 말하는 또 다른 방법입니다).
업데이트 (2019) :이 상황에 대해 더 많이 생각할수록 "중첩없이 중첩 교차 검증"접근법 을 선호합니다 .