과적 합을 제어하는 접근 방식으로 정규화에 대해 배웠으며,이 아이디어를 간단한 백프로 파 게이션 및 MLP ( Multilayer Perceptron) 구현에 통합하고 싶습니다 .
현재 과적 합을 피하기 위해 검증 세트에서 네트워크를 교차 검증하고 최고 점수를 유지했습니다. 이것은 정상적으로 작동하지만 정규화를 추가하면 정규화 알고리즘과 매개 변수를 올바르게 선택하면 네트워크가 비 과적 모델에 더 체계적으로 수렴하게됩니다.
나는 (코 세라 ML 과정에서) 업데이트 용어에 대한이 공식은 에러 전파에서 전체 훈련 세트의 조정에 대해 적용 가능한 모든 델타를 합산 한 후, 각각의 무게 배치 갱신 등으로 적혀있다 lambda * current_weight결합하기 전에뿐만 아니라 추가 배치 끝에서 델타를 뺍니다 lambda. 여기서 정규화 매개 변수입니다.
역 전파 구현은 항목 별 가중치 업데이트를 사용합니다. 배치 접근 방식을 직관적으로 복사해도 괜찮지 만 배치 방식을 복사 할 수 없다는 것이 우려됩니다. 항목 당 더 작은 정규화 용어도 작동합니까?
예를 들어 lambda * current_weight / NN이 훈련 세트의 크기 인 경우-언뜻보기에 이것은 합리적으로 보입니다. 나는 주제에 대해 아무것도 찾을 수 없었으며, 그것이 정규화가 항목 별 업데이트와 함께 잘 작동하지 않거나 다른 이름이나 수식으로 변경 되었기 때문인지 궁금합니다.