테스트 세트를 보유하고 트레이닝 세트에서 모델을 훈련하여 분류 모델의 성능을 평가하는 것에 대해 종종 듣습니다. 그런 다음 예측 된 값과 실제 값을위한 2 개의 벡터를 만듭니다. 분명히 비교를 수행하면 F-Score, Kappa Statistic, Precision & Recall, ROC 곡선 등을 사용하여 예측력으로 모델의 성능을 판단 할 수 있습니다.
이것은 회귀와 같은 수치 예측을 평가하는 것과 어떻게 비교됩니까? 훈련 세트에서 회귀 모델을 학습하고 값을 예측 한 다음이 예측 된 값을 테스트 세트에있는 실제 값과 비교할 수 있다고 가정합니다. 분명히 분류 작업이 아니기 때문에 성능 측정 값이 달라야합니다. 일반적인 잔차와 통계는 명백한 척도이지만 회귀 모형의 성능을 평가하는 더 좋은 방법이 있습니까? 분류에는 많은 옵션이있는 것처럼 보이지만 회귀는 R ^ 2 와 잔차로 남습니다 .
1
정확히 어떤 질문을하는지 잘 모르겠지만 연속 출력이있는 회귀 모델의 명백한 오류 메트릭은 모델 출력과 결과 변수 사이의 평균 제곱 오류 (MSE)입니다.
—
BGreene
따라서 실제와 예측 사이의 오류 측정.
—
StatTime
예, 교육 세트에 최적화되고 테스트 세트를 사용하여 검증되었습니다.
—
BGreene