f 베타 점수가 왜 그런 베타를 정의합니까?


10

이것은 F 베타 점수입니다 :

Fβ=(1+β2)precisionrecall(β2precision)+recall

Wikipedia 기사 있습니다.Fβ "measures the effectiveness of retrieval with respect to a user who attaches β times as much importance to recall as precision"

나는 아이디어를 얻지 못했다. 왜 그렇게 정의 합니까? F β를 다음 과 같이 정의 할 수 있습니까?βFβ

Fβ=(1+β)precisionrecall(βprecision)+recall

그리고 어떻게 보여 β times as much importance?


2
아래에서 "베타가 아닌 베타 제곱 이유"를 다루는 미분 미적분이 포함 된 최신 답변을 확인하십시오 .
javadba

답변:


19

시키는 귀하가 제공하는 첫 번째 정의에 무게 일 ~ β 설정 한 경우 두 번째에 무게를 두 정의는 동일합니다 ~ β = β 2 ,이 두 정의는 정의 만 표기 차이를 나타낼 수 있도록 F β 점수를 . 나는 그것이 첫 번째 방법 (예 : wikipedia page )과 두 번째 방법 (예 : here )을 모두 정의하는 것을 보았습니다 .ββ~β~=β2Fβ

측정치는 정밀도와 재현율, 정확도의 역수 리콜의 역수의 평균, 즉 역수의 조화 평균을 취함으로써 얻어진다F1

F1=1121precision+121recall=2precisionrecallprecision+recall

분모에 가중치를 사용하는 대신 1 ( 리콜 2 개1 개12 정밀도), 우리 수도 여전히 1에 요약 만하는 리콜에 무게가 있음을 대신 할당 가중치β정밀도에 무게 큰 배를 (β12β리콜을위한 β + 11ββ+1정밀도의 경우 β + 1 ). 이것은Fβ점수의 두 번째 정의를 산출합니다:1β+1Fβ

Fβ=11β+11precision+ββ+11recall=(1+β)precisionrecallβprecision+recall

우리가 사용했다면 다시 말하지만, 대신 β 두 정의 사이의 차이는 단지 표기 그래서 여기에 우리가, 당신의 첫 번째 정의에 도착했을 것이다.β2β


1
β

1
"베타가 아닌 제곱이 왜 베타가 아닌지"를 다루는 미분 미분법은 아래의 새로운 답변에 포함되어 있습니다.
javadba

β(1+β)precisionrecallβprecision

6

β2ββ

β2

P/RE/R=E/PE=E(P,R)

이것에 대한 동기 :

P/R

β2PRPRE1FEF

F=1(αP+1αR)

F/P=α(αP+1αR)2P2

F/R=1α(αP+1αR)2R2

αP/RβR/P

F/P=F/RαP2=1αR2RP=1αα

βαβ2

β=1ααβ2=1ααβ2+1=1αα=1β2+1

1α=11β2+1β2β2+1

우리는 다음을 얻습니다.

F=1(1β2+11P+β2β2+11R)

질문에 양식을 제공하기 위해 재배치 할 수 있습니다.

ββ2βββ

제안한대로 점수를 정의 할 수 있지만,이 경우 논의 된 해석이 더 이상 유지되지 않거나 정밀도와 리콜 간의 상충 관계를 정량화하기위한 다른 정의를 암시한다는 것을 알아야합니다.

각주 :

  1. P/R

참고 문헌 :

  1. CJ 반 리즈 베르겐. 1979. 정보 검색 (2 판), pp.133-134
  2. 사사키 2007.“F- 측정의 진실”, 교육, 튜토리얼 자료

1
이것이 정답입니다.
javadba

3

빨리 지적하기.

베타 값이 클수록 정밀도를 높이는 것을 의미합니다.

F-β 점수가 높을수록 분모가 작아지기를 원합니다. 따라서 β를 줄이면 정밀도 점수가 좋은 것으로 모델이 덜 처벌됩니다. β를 증가 시키면 정밀도가 높을 때 F-β 점수가 더 많이 부과됩니다.

F-β 스코어링에 가중치를 부여하여 정확도를 평가하려면 β는 0 <β <1이어야합니다. 여기서 β-> 0은 정밀도 만 값을 갖습니다 (분자가 매우 작아지고 분모에있는 유일한 것은 리콜, 따라서 F-β 점수는 리콜이 증가함에 따라 감소합니다.

http://scikit-learn.org/stable/modules/generated/sklearn.metrics.fbeta_score.html


0

β ^ 2에 정밀도를 곱한 이유는 F- 점수가 정의 된 방식입니다. 베타 값이 클수록 정밀도를 높이는 것을 의미합니다. 리콜을 곱해보고 싶을 경우 베타 값이 증가함에 따라 리콜 가치가 높아집니다.


0

1보다 큰 베타 값은 Precision과 비교하여 모델이 Recall 모델에 더 많은주의를 기울이기를 원한다는 의미입니다. 다른 한편으로, 1보다 작은 값은 정밀도에 더 중점을 둡니다.

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.