"Leave-one-out"교차 유효성 검사는 훈련 과정이 겹치므로 편차가 크다는 것을 계속해서 읽었습니다. 그러나 나는 그것이 왜 그런지 이해하지 못합니다 : 훈련 세트가 거의 동일하기 때문에 교차 검증의 성능이 정확하게 안정적이어야합니까 (낮은 분산)? 아니면 "분산"개념을 잘못 이해하고 있습니까?
또한 LOO가 편향되지 않는 방법을 완전히 이해하지 못하지만 분산이 높습니다. LOO 추정치가 기대치의 실제 추정치 값과 같으면 어떻게 분산을 높일 수 있습니까?
참고 : 나는 여기에 비슷한 질문이 있다는 것을 알고 있습니다. 왜 오류 높은 평균 추정치에 대해 LOOCV (Leave-One-Out Cross-Validation) 분산이 있습니까? 그러나 답변을 한 사람은 나중에 자신의 대답이 틀렸다는 것을 깨달았다는 의견에서 나중에 말합니다.