리콜은 왜 진정한 부정을 고려하지 않습니까?


10

리콜은 왜 진정한 부정을 고려하지 않습니까? 진정한 부정이 실제 긍정적 인 것만큼이나 중요한 실험에서 그것들을 비교할 수있는 측정 기준이 있습니까?


2
나는 진정한 부정적인 비율을 생각 (또한 특이도 다른 설정에서이) 당신이 찾고있는이었다,하지만 볼 en.wikipedia.org/wiki/Precision_and_recall을 .
chl

답변:


7

리콜 (정확도와 조합하여)은 일반적으로 긍정을 찾는 데 주로 관심이있는 영역에서 사용됩니다. 이러한 영역의 예로는 예를 들어 Performance Marketing 또는 (이미 링크에서 제안한대로) 정보 검색 영역이 있습니다.

그래서:

TNTN+FN

네거티브와 포지티브 모두에 ​​대한 리콜 최적화에 관심이있는 경우 "정확도"를 살펴보십시오 (chl의 링크 참조). 그러나 클래스 스큐를주의하십시오 (즉, 네거티브보다 많은 포지티브가 많거나 그 반대입니다.이 경우 모든 데이터 포인트에 대해 예측을 주 클래스로 설정하여 정확도를 "최적화"할 수 있습니다).


내 질문에 대한 답변 주셔서 감사합니다. 나는 부정과 긍정을 모두 최적화하는 데 실제로 관심이 있습니다. 이 경우, tp, fp, tn 및 fn을 고려하므로 정확도가 좋은 방법 인 것 같습니다. 그러나 위에서 언급했듯이 클래스 왜곡을 알고 있어야합니다. 따라서이를 방지하기 위해 다른 메트릭과 함께 정확도를 제시해야합니까? 다시 감사합니다!
Raffi Khatchadourian

@Raffi : 마이너 클래스의 정확하게 분류 된 예제의 비율을 추가 할 수 있습니다 (예 : 정밀도 또는 실제 음수 비율). 그러나이 문제에 대한 인식을 밝히고 모델이 주요 클래스를 예측하는 것이 아니라는 것을 확인하는 것으로 충분하다고 생각합니다. 그러나 이것은 단지 내 의견입니다.
steffen

감사! 나는 그 길을 가겠다 고 생각한다. 즉, 현재의 정확성과 모델이 주요 클래스만을 예측하지는 않는다.
Raffi Khatchadourian
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.