언급했듯이 AUC는 순위 통계 (즉, 스케일 불변)이고 로그 손실은 교정 통계입니다. 동일한 AUC를 가지지 만 예측 된 값을 스케일링하여 다른 모델의 로그 손실을 최소화하지 못하는 모델을 사소하게 구성 할 수 있습니다. 치다:
auc <- function(prediction, actual) {
mann_whit <- wilcox.test(prediction~actual)$statistic
1 - mann_whit / (sum(actual)*as.double(sum(!actual)))
}
log_loss <- function (prediction, actual) {
-1/length(prediction) * sum(actual * log(prediction) + (1-actual) * log(1-prediction))
}
sampled_data <- function(effect_size, positive_prior = .03, n_obs = 5e3) {
y <- rbinom(n_obs, size = 1, prob = positive_prior)
data.frame( y = y,
x1 =rnorm(n_obs, mean = ifelse(y==1, effect_size, 0)))
}
train_data <- sampled_data(4)
m1 <- glm(y~x1, data = train_data, family = 'binomial')
m2 <- m1
m2$coefficients[2] <- 2 * m2$coefficients[2]
m1_predictions <- predict(m1, newdata = train_data, type= 'response')
m2_predictions <- predict(m2, newdata = train_data, type= 'response')
auc(m1_predictions, train_data$y)
#0.9925867
auc(m2_predictions, train_data$y)
#0.9925867
log_loss(m1_predictions, train_data$y)
#0.01985058
log_loss(m2_predictions, train_data$y)
#0.2355433
따라서 AUC를 최대화하는 모델이 최소화 된 로그 손실을 의미한다고 말할 수는 없습니다. 로그 손실을 최소화하는 모델이 최대화 된 AUC에 해당하는지 여부는 컨텍스트에 크게 의존합니다. 클래스 분리 성, 모델 편향 등 실제로는 약한 관계를 고려할 수 있지만 일반적으로 단순히 다른 목표입니다. 클래스 분리 가능성 (예측 변수의 크기)을 증가시키는 다음 예제를 고려하십시오.
for (effect_size in 1:7) {
results <- dplyr::bind_rows(lapply(1:100, function(trial) {
train_data <- sampled_data(effect_size)
m <- glm(y~x1, data = train_data, family = 'binomial')
predictions <- predict(m, type = 'response')
list(auc = auc(predictions, train_data$y),
log_loss = log_loss(predictions, train_data$y),
effect_size = effect_size)
}))
plot(results$auc, results$log_loss, main = paste("Effect size =", effect_size))
readline()
}