가장 일반적인 컨볼 루션 신경망에는 출력 기능의 크기를 줄이기 위해 풀링 레이어가 포함되어 있습니다. 왜 단순히 컨볼 루션 레이어의 보폭을 증가 시켜서 같은 것을 달성 할 수 없었습니까? 풀링 레이어가 필요한 이유는 무엇입니까?
가장 일반적인 컨볼 루션 신경망에는 출력 기능의 크기를 줄이기 위해 풀링 레이어가 포함되어 있습니다. 왜 단순히 컨볼 루션 레이어의 보폭을 증가 시켜서 같은 것을 달성 할 수 없었습니까? 풀링 레이어가 필요한 이유는 무엇입니까?
답변:
실제로 그렇게 할 수 있습니다. 단순성을위한 노력 : 모든 컨볼 루션 넷을 참조하십시오 . 풀링은 번역 불일치 량을 제공하는데 도움이 될 수도 있고 아닐 수도 있습니다. 또한 풀링은 회선보다 계산 속도가 빠릅니다. 그럼에도 불구하고 항상 회선으로 풀링을 보폭으로 바꾸고 더 나은 기능을 볼 수 있습니다.
일부 현재 작품은 평균 풀링 ( Wide Residual Networks , DenseNets )을 사용하고 다른 작품 은 보폭 ( DelugeNets )을 사용합니다.
최대 풀링은 이미지의 가장 선명한 기능을 추출하기 때문에 도움이됩니다. 따라서 이미지가 주어지면 가장 선명한 기능이 이미지의 가장 낮은 수준의 표현입니다. https://www.quora.com/What-is-the-benefit-of-using-average-pooling-rather-than-max-pooling
그러나 Andrew Ng의 Deep Learning 강의에 따르면 max pooling은 잘 작동하지만 아무도 이유를 모릅니다. Quote-> "그러나 사람들이 max pooling을 사용하는 주된 이유는 그것이 많은 실험에서 잘 작동하기 때문에 발견 되었기 때문이라고 생각합니다. ... 근본적인 이유. "