Model Selection 의 Scikit Learn 페이지 에는 중첩 교차 검증 사용에 대해 언급되어 있습니다.
>>> clf = GridSearchCV(estimator=svc, param_grid=dict(gamma=gammas), ... n_jobs=-1) >>> cross_validation.cross_val_score(clf, X_digits, y_digits)
두 개의 교차 검증 루프가 병렬로 수행됩니다. 하나는 감마를 설정하기 위해 GridSearchCV 추정기에 의해, 다른 하나는 추정기의 예측 성능을 측정하기 위해 cross_val_score에 의해 다른 것입니다. 결과 점수는 새 데이터에 대한 예측 점수의 편향되지 않은 추정치입니다.
내가 이해 한 바에 따라 clf.fit
교차 검증을 기본적으로 사용하여 최상의 감마를 결정합니다. 이 경우 왜 위에서 주어진 cv를 사용해야합니까? 이 노트는 중첩 된 cv가 예측 점수의 "편견없는 추정치"를 생성한다고 언급합니다. 그것도 그렇지 clf.fit
않습니까?
또한 cross_validation.cross_val_score(clf, X_digits, y_digits)
절차 에서 clf 최상의 추정치를 얻을 수 없었습니다 . 어떻게 할 수 있는지 조언 해 주시겠습니까?