의사 결정 임계 값은 예측하는 긍정 수와 예측하는 부정의 수 사이에 절충점을 만듭니다. 결과적으로 결정 임계 값을 늘리면 예측 긍정의 수가 감소하고 예측하는 부정의 수가 증가하기 때문에 당신은 예측합니다.
결정 임계 값은 하지 가 변경되지 않기 때문에 모델 조정의 의미에서 하이퍼 매개 변수 유연성 모델을.
결정 임계 값과 관련하여 "조정"이라는 단어에 대해 생각하는 방식은 하이퍼 파라미터를 조정하는 방법과 다릅니다. 변경 및 기타 모델 하이퍼 매개 변수하면 변경 모델을씨(예 : 로지스틱 회귀 계수가 다름) 임계 값을 조정하면 TP는 FN, FP는 TN의 두 가지만 수행 할 수 있습니다. 그러나 계수를 변경하지 않기 때문에 모델은 동일하게 유지됩니다. (임의의 숲과 같이 계수가없는 모델의 경우도 마찬가지입니다. 임계 값을 변경해도 나무에 대해서는 아무런 변화가 없습니다.) 좁은 의미에서 오류 중에서 가장 좋은 절충점을 찾는 것이 맞습니다. 임계 값 변경이에 의해 최적화 된 방식으로 다른 모델 하이퍼 파라미터와 연결되어 있다고 생각하는 것은 잘못입니다 GridSearchCV
.
달리 말하면, 결정 임계 값을 변경하면 원하는 False Positive 및 False Negatives 수에 대한 선택이 반영됩니다. 의사 결정 임계 값을 -1과 같은 완전히 무시할 수없는 값으로 설정 한 가설을 고려하십시오. 모든 확률은 음이 아니므로이 임계 값을 사용하면 모든 관측치에 대해 "긍정적"으로 예측됩니다. 특정 관점에서 보면 위음성 비율이 0.0이기 때문에 이것은 훌륭합니다. 그러나 오 탐지율도 1.0보다 크므로 -1에서 임계 값을 선택하는 것은 끔찍합니다.
물론 이상적인 TPR은 1.0이고 FPR은 0.0이고 FNR은 0.0입니다. 그러나 이것은 실제 응용 프로그램에서는 일반적으로 불가능하므로 질문은 "얼마나 많은 TPR을받을 수 있습니까?" 그리고 이것은 roc 곡선 의 동기입니다 .