균형 잡힌 정확도 vs F-1 점수


15

균형 잡힌 정확도의 차이를 설명 할 수 있는지 궁금합니다.

b_acc = (sensitivity + specificity)/2

f1 점수는 다음과 같습니다.

f1 = 2*precision*recall/(precision + recall) 

답변:


19

수학적으로, b_acc는 retrieve_P 및 retrieve_N의 산술 평균이며 f1은 recall_P 및 precision_P의 조화 평균입니다.

F1과 b_acc는 모두 클래스 불균형을 처리하는 분류기 평가에 대한 메트릭입니다. 두 클래스 (N 또는 P) 중 어느 클래스가 다른 클래스보다 많은지에 따라 각 메트릭이 다른 메트릭보다 성능이 뛰어납니다.

1) N >> P이면 f1이 더 좋습니다.

2) P >> N이면 b_acc가 더 좋습니다.

레이블 전환이 가능한 경우 위의 두 가지 불균형 사례에서 두 가지 지표를 모두 사용할 수 있습니다. 그렇지 않은 경우 훈련 데이터의 불균형에 따라 적절한 메트릭을 선택할 수 있습니다.


1
감사합니다. 긍정적 / 부정적 클래스 수로 Fscore vs 균형 정확도 선택에 관한 정보가 있습니까?
gin

두 가지 중에서 선택하는 방법에 대한 자세한 내용은 @gin의 요청을 두 번째로하고 싶습니다. N이 약 8 % 인 데이터가 있습니다. 위의 답변으로 균형 정확도를 사용해야하는 것 같습니다. 이 선택에 대한 다른 참고 자료를 찾고 있었지만 (P> N-> b_acc) 아무것도 보지 못했습니다.
anguyen1210

이것은 나에게 이해가되지 않습니다. 균형 잡힌 정확도는 라벨 전환시 변하지 않습니다. 레이블이 변경되지 않으면 어떻게 라벨을 전환하여 "더 좋게"만들 수 있습니까?
TC Proctor
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.