이것은 한동안 나에 대한 작은 개념적 질문입니다. 신경망에서 최대 풀링 레이어를 통해 어떻게 역 전파 할 수 있습니까?
Torch 7의 nn 라이브러리에 대한 자습서 를 진행하면서 최대 풀링 레이어를 발견했습니다 . 라이브러리는 딥 네트워크의 각 레이어에 대한 그라디언트 계산 및 전달 패스를 추상화합니다. 최대 풀링 레이어에 대한 그래디언트 계산이 어떻게 수행되는지 이해하지 못합니다.
I는 알고있는 경우, 입력이있는 경우 신경 들어가는 층의 다음 로 정의 ( )은
따라서, 최대 풀링 계층은 평소와 같이 다음 계층 의 받습니다 . 그러나 최대 풀링 뉴런에 대한 활성화 함수는 입력으로 값 벡터 (최대 값 초과)를 취하므로 {\ delta_i} ^ {l} 은 더 이상 단일 숫자가 아니라 벡터 ( \ theta ^ { '} ({z_j} ^ l) 은 \ nabla \ theta (\ left \ {{z_j} ^ l \ right \}) 로 대체해야합니다 . 또한 max 함수 인 \ theta 는 입력과 관련하여 구별 할 수 없습니다.
그래서 .. 정확히 어떻게 작동해야합니까?