최근에는 레이어 정규화 용지가 있습니다. Keras 에도 구현되어 있습니다 .
그러나 Recurrent Batch Normalization (Cooijmans, 2016) 및 Batch Normalized Recurrent Neural Networks (Laurent, 2015) 라는 제목의 논문이 있습니다 . 이 세 가지의 차이점은 무엇입니까?
이해가 안되는 관련 작업 섹션이 있습니다.
배치 정규화는 이전에 반복적 인 신경망으로 확장되었다 [Laurent et al., 2015, Amodei et al., 2015, Cooijmans et al., 2016]. 이전 연구 [Cooijmans et al., 2016]는 각 시간 단계에 대해 독립적 인 정규화 통계를 유지함으로써 반복 배치 정규화의 최상의 성능을 얻는다고 제안합니다. 저자는 반복 배치 정규화 계층에서 게인 매개 변수를 0.1로 초기화하면 모델의 최종 성능에 큰 차이가 있음을 보여줍니다. 우리의 작업은 또한 체중 표준화와 관련이 있습니다 [Salimans and Kingma, 2016]. 가중치 정규화 에서 분산 대신 들어오는 가중치의 L2 규범을 사용하여 합산 된 입력을 뉴런으로 정규화합니다.. 예상 통계를 사용하여 가중치 정규화 또는 배치 정규화를 적용하는 것은 원래 피드 포워드 신경망의 다른 매개 변수화와 동일합니다. ReLU 네트워크에서의 재 파라미터 화는 Pathnormalized SGD에서 연구되었다 [Neyshabur et al., 2015]. 그러나 제안 된 레이어 정규화 방법 은 원래 신경망의 매개 변수화 가 아닙니다. 따라서 레이어 정규화 된 모델은 다른 방법 과 는 다른 불변 속성을 가지므로 다음 섹션에서 살펴볼 것입니다.