다음 발췌문이 내 질문이 무엇인지에 대한 통찰력을 제공하기를 바랍니다. 이들은 http://neuralnetworksanddeeplearning.com/chap3.html 에서 온 것입니다.
학습은 점차 느려집니다. 마지막으로, 약 280 년경에 분류 정확도는 거의 개선되지 않습니다. 후기 신기원은 신기원 280에서 정확도 값 근처에서 작은 확률 론적 변동을 볼뿐입니다. 이전 데이터와 대조적으로 훈련 데이터와 관련된 비용이 계속해서 하락합니다. 우리가 그 비용을 보면, 우리 모델은 여전히 "더 나은"것으로 보인다. 그러나 테스트 정확도 결과는 개선이 환상이라는 것을 보여줍니다. Fermi가 싫어 한 모델과 마찬가지로, epoch 280 이후에 우리의 네트워크는 더 이상 테스트 데이터를 일반화하지 않습니다. 따라서 유용한 학습이 아닙니다. 우리는 네트워크가 시대 280 이상으로 과적 합하거나 과도하게 훈련되고 있다고 말합니다.
우리는 신경망을 훈련하고 있으며 (교육 데이터에 대한) 비용은 epoch 400까지 떨어지고 있지만 epoch 280 이후 분류 정확도는 정적 인 (몇 가지 확률 적 변동을 제외하고) 점점 높아지고 있습니다.
우리는 테스트 데이터 비용이 약 15 시경까지 개선된다는 것을 알 수 있지만, 그 후에는 교육 데이터 비용이 계속 나아지더라도 실제로 악화되기 시작합니다. 이것은 우리 모델이 지나치게 적합하다는 또 다른 신호입니다. 그래도 퍼즐을 제기하는데, 이것은 에포크 15 또는 에포크 280을 과적 합이 학습을 지배하게 될 시점으로 간주해야 하는가? 실제적인 관점에서 우리가 실제로 관심을 갖는 것은 테스트 데이터의 분류 정확도를 향상시키는 것입니다. 반면 테스트 데이터의 비용은 분류 정확도를 대리하기위한 것이 아닙니다. 따라서 epoch 280을 신경망에서 과잉 적합이 학습을 지배하는 지점으로 간주하는 것이 가장 합리적입니다.
훈련 데이터와 비교 한 테스트 데이터의 분류 정확도와는 대조적으로, 이제 훈련 비용 대비 테스트 데이터에 비용을 부과하고 있습니다.
그런 다음이 책은 왜 280이 오버 피팅이 시작된 올바른시기인지 설명합니다. 그것이 내가 가진 문제입니다. 나는 이것에 머리를 감쌀 수 없다.
우리는 비용을 최소화하기 위해 모델을 요구하고 있으며 따라서 비용은 올바르게 분류하기 위해 자체 강도를 측정하는 데 사용되는 지표입니다. 280을 오버 피팅이 시작된 올바른시기로 간주하는 경우 특정 테스트 데이터에서 더 나은 분류 자이지만 편견이 낮은 의사 결정을 내리는 경향이있는 편향된 모델을 만들지 않았습니까? 테스트 데이터에 표시된 결과에서