Keras에서 커스텀 퍼포먼스 메트릭을 정의하는 방법은 무엇입니까?


11

다음과 같이 Keras (Tensorflow 백엔드)에서 사용자 지정 메트릭 기능 (F1-Score)을 정의하려고했습니다.

def f1_score(tags, predicted):

    tags = set(tags)
    predicted = set(predicted)

    tp = len(tags & predicted)
    fp = len(predicted) - tp 
    fn = len(tags) - tp

    if tp>0:
        precision=float(tp)/(tp+fp)
        recall=float(tp)/(tp+fn)
        return 2*((precision*recall)/(precision+recall))
    else:
        return 0

지금까지는 훌륭했지만 모델 컴파일에 적용하려고 할 때 :

model1.compile(loss="binary_crossentropy", optimizer=Adam(), metrics=[f1_score])

오류가 발생합니다.

TypeError                                 Traceback (most recent call last)
<ipython-input-85-4eca4def003f> in <module>()
      5 model1.add(Dense(output_dim=10, activation="sigmoid"))
      6 
----> 7 model1.compile(loss="binary_crossentropy", optimizer=Adam(), metrics=[f1_score])
      8 
      9 h=model1.fit(X_train, Y_train, batch_size=500, nb_epoch=5, verbose=True, validation_split=0.1)

/home/buda/anaconda2/lib/python2.7/site-packages/keras/models.pyc in compile(self, optimizer, loss, metrics, sample_weight_mode, **kwargs)
    522                            metrics=metrics,
    523                            sample_weight_mode=sample_weight_mode,
--> 524                            **kwargs)
    525         self.optimizer = self.model.optimizer
    526         self.loss = self.model.loss

/home/buda/anaconda2/lib/python2.7/site-packages/keras/engine/training.pyc in compile(self, optimizer, loss, metrics, loss_weights, sample_weight_mode, **kwargs)
    664                 else:
    665                     metric_fn = metrics_module.get(metric)
--> 666                     self.metrics_tensors.append(metric_fn(y_true, y_pred))
    667                     if len(self.output_names) == 1:
    668                         self.metrics_names.append(metric_fn.__name__)

<ipython-input-84-b8a5752b6d55> in f1_score(tags, predicted)
      4     #tf.convert_to_tensor(img.eval())
      5 
----> 6     tags = set(tags)
      7     predicted = set(predicted)
      8 

/home/buda/anaconda2/lib/python2.7/site-packages/tensorflow/python/framework/ops.pyc in __iter__(self)
    493       TypeError: when invoked.
    494     """
--> 495     raise TypeError("'Tensor' object is not iterable.")
    496 
    497   def __bool__(self):

TypeError: 'Tensor' object is not iterable.

여기서 문제가 무엇입니까? 내 f1_score 함수 입력이 Tensorflow 배열이 아니라는 사실은 무엇입니까? 그렇다면 어디서 어떻게 올바르게 변환 할 수 있습니까?


흠, 오류 메시지는 텐서 객체를 얻는 것을 의미합니다. 아마도 당신은 결국 평가가 필요합니다! 그렇다면, 실수는 실수로 사용 eval되었을 가능성이 있습니다eval()
Neil Slater

답변:


17

Keras 백엔드 기능 을 사용해야 합니다 . 불행히도 그들은 &연산자를 지원하지 않으므로 해결 방법을 만들어야합니다. 차원의 행렬을 생성합니다 batch_size x 3. 예를 들어 첫 번째 열은 기본 진리 벡터, 두 번째는 실제 예측 및 세 번째는 진정한 긍정적 인 경우 만 포함하는 일종의 레이블 도우미 열입니다. 그런 다음 어떤 인스턴스가 긍정적 인스턴스인지 확인하고 긍정적으로 예측되고 레이블 도우미도 긍정적입니다. 그것들은 진정한 긍정적입니다.

우리는 레이블의 역 계산을 통해 위양성, 위양성 및 진 음성 으로이 아날로그를 만들 수 있습니다.

f1 측정 항목은 다음과 같습니다.

def f1_score(y_true, y_pred):
    """
    f1 score

    :param y_true:
    :param y_pred:
    :return:
    """
    tp_3d = K.concatenate(
        [
            K.cast(y_true, 'bool'),
            K.cast(K.round(y_pred), 'bool'),
            K.cast(K.ones_like(y_pred), 'bool')
        ], axis=1
    )

    fp_3d = K.concatenate(
        [
            K.cast(K.abs(y_true - K.ones_like(y_true)), 'bool'),
            K.cast(K.round(y_pred), 'bool'),
            K.cast(K.ones_like(y_pred), 'bool')
        ], axis=1
    )

    fn_3d = K.concatenate(
        [
            K.cast(y_true, 'bool'),
            K.cast(K.abs(K.round(y_pred) - K.ones_like(y_pred)), 'bool'),
            K.cast(K.ones_like(y_pred), 'bool')
        ], axis=1
    )

    tp = K.sum(K.cast(K.all(tp_3d, axis=1), 'int32'))
    fp = K.sum(K.cast(K.all(fp_3d, axis=1), 'int32'))
    fn = K.sum(K.cast(K.all(fn_3d, axis=1), 'int32'))

    precision = tp / (tp + fp)
    recall = tp / (tp + fn)
    return 2 * ((precision * recall) / (precision + recall))

Keras 백엔드 계산기는 0으로 나누기 위해 nan을 반환하므로 return 문에 if-else 문이 필요하지 않습니다.

편집 : 정확한 구현에 대한 좋은 아이디어를 찾았습니다. 첫 번째 접근 방식의 문제점은 배치 방식으로 계산 된 후 평균화되기 때문에 "근사치"만 있다는 것입니다. keras.callbacks로 각 에포크 후에 이것을 계산할 수도 있습니다 . 아이디어를 여기에서 찾으십시오 : https://github.com/fchollet/keras/issues/5794

구현 예는 다음과 같습니다.

import keras
import numpy as np
import sklearn.metrics as sklm


class Metrics(keras.callbacks.Callback):
    def on_train_begin(self, logs={}):
        self.confusion = []
        self.precision = []
        self.recall = []
        self.f1s = []
        self.kappa = []
        self.auc = []

    def on_epoch_end(self, epoch, logs={}):
        score = np.asarray(self.model.predict(self.validation_data[0]))
        predict = np.round(np.asarray(self.model.predict(self.validation_data[0])))
        targ = self.validation_data[1]

        self.auc.append(sklm.roc_auc_score(targ, score))
        self.confusion.append(sklm.confusion_matrix(targ, predict))
        self.precision.append(sklm.precision_score(targ, predict))
        self.recall.append(sklm.recall_score(targ, predict))
        self.f1s.append(sklm.f1_score(targ, predict))
        self.kappa.append(sklm.cohen_kappa_score(targ, predict))

        return

네트워크가이 함수를 호출하게하려면 다음과 같이 콜백에 추가하면됩니다.

metrics = Metrics()
model.fit(
    train_instances.x,
    train_instances.y,
    batch_size,
    epochs,
    verbose=2,
    callbacks=[metrics],
    validation_data=(valid_instances.x, valid_instances.y),
)

그런 다음 metrics변수 의 멤버에 간단히 액세스 할 수 있습니다 .


4
고맙습니다. 이미 유용했습니다. 훈련 중에 모니터링 할 수 있도록 커스텀 메트릭을 텐서 보드 콜백에 ​​통합하는 방법을 알고 있습니까?
N.Kaiser 2016
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.