AIC와 c- 통계는 다른 질문에 답하려고합니다. (최근 몇 년 동안 c- 통계 관련 문제가 제기되었지만이를 제쳐두고 올 것입니다)
대략적으로 말하면 :
- AIC는 특정 분류 오류 에 대해 모델이 얼마나 적합한 지 알려줍니다 .
- AUC는 모든 분류 오류에 대해 평균적으로 모델이 얼마나 잘 작동하는지 알려줍니다.
AIC를 계산할 때는 0.9라고하는 예측을 제공하는 로지스틱을 1 (예 : 0보다 1)의 예측으로 처리하지만 반드시 그렇지는 않습니다. 당신은 당신의 물류 점수를 가지고 "0.95 이상은 1, 아래는 모든 것이 0"이라고 말할 수 있습니다. 왜 이렇게 하시겠습니까? 글쎄, 이것은 당신이 정말로 확신 할 때 오직 하나만 예측하도록 보장 할 것입니다. 당신의 오 탐률은 실제로 매우 낮을 것이지만, 당신의 오 탐률은 급등 할 것입니다. 어떤 상황에서는 이것이 나쁜 일이 아닙니다. 사기를당한 사람을 고발하려는 경우, 실제로 가장 먼저 확신하고 싶을 것입니다. 또한 긍정적 인 결과를 따르는 것이 비용이 많이 든다면 너무 많은 것을 원하지 않습니다.
이것이 비용과 관련된 이유입니다. 1을 0으로 분류 할 때 비용과 0을 1로 분류 할 때의 비용이 있습니다. 일반적으로 (기본 설정을 사용했다고 가정 할 때) 로지스틱 회귀 분석을위한 AIC는 두 가지 오 분류가 동일 할 때 특별한 경우를 나타냅니다. 비용이 많이 든다. 즉, 로지스틱 회귀 분석은 긍정적 또는 부정적 선호도없이 정확한 전체 예측 수를 제공합니다.
ROC 곡선은 다른 비용 요구 사항에서 분류기를 사용한 경우 분류 기가 어떻게 수행되는지를 보여주기 위해 가양성에 대한 참 긍정을 표시하기 때문에 사용됩니다. c- 통계량은 ROC 곡선이 다른 곡선 위에 엄격하게 존재하기 때문에 분명히 지배적 인 분류기이기 때문에 발생합니다. 그러므로 분류기 전체의 우수성을 나타내는 척도로 곡선 아래 면적을 측정하는 것이 직관적입니다.
따라서 기본적으로 모델을 피팅 할 때 비용을 알고 있다면 AIC (또는 이와 유사한)를 사용하십시오. 점수를 구성하고 있지만 진단 임계 값을 지정하지 않은 경우 AUC 접근 방식이 필요합니다 (AUC 자체에 대한 다음주의 사항 포함).
c-statistic / AUC / Gini의 문제점은 무엇입니까?
수년 동안 AUC는 표준 접근 방식이었으며 여전히 널리 사용되지만 여러 가지 문제가 있습니다. 특히 매력적으로 만든 것은 분류의 등급에 대한 Wilcox 테스트에 해당한다는 것입니다. 즉, 한 클래스의 무작위로 선택된 멤버의 점수가 다른 클래스의 무작위로 선택된 멤버의 점수보다 높을 확률을 측정했습니다. 문제는 거의 유용한 지표가 아닙니다.
AUC의 가장 중요한 문제는 몇 년 전 David Hand에 의해 발표되었습니다. 문제의 핵심은 ROC 곡선의 x 축이 False Positive Rate이기 때문에 AUC가 모든 비용에 대해 평균을내는 반면 다른 비용 체계에 할당되는 가중치는 분류기마다 다르다는 것입니다. 따라서 두 개의 다른 로지스틱 회귀 분석에서 AUC를 계산하면 두 경우 모두 "같은 것"을 측정하지 않습니다. 이것은 AUC를 기반으로 모델을 비교하는 것이 의미가 없다는 것을 의미합니다.
손은 고정 비용 가중치를 사용하여 대체 계산을 제안했으며 이것을 H- 측정이라고했습니다. R에는 hmeasure
이 계산을 수행 할 패키지가 있으며 , 비교를 위해 AUC를 믿습니다.
AUC 문제에 대한 몇 가지 참조 :
수신기 작동 특성 곡선 아래의 영역이 적절한 분류기 성능 척도는 언제입니까? DJ 손, C. Anagnostopoulos 패턴 인식 편지 34 (2013) 492–495
(이것은 특히 접근하기 쉽고 유용한 설명 인 것으로 나타났습니다)