컨볼 루션 신경망에서 최대 풀링이 필요한 이유는 무엇입니까?


18

가장 일반적인 컨볼 루션 신경망에는 출력 기능의 크기를 줄이기 위해 풀링 레이어가 포함되어 있습니다. 왜 단순히 컨볼 루션 레이어의 보폭을 증가 시켜서 같은 것을 달성 할 수 없었습니까? 풀링 레이어가 필요한 이유는 무엇입니까?

답변:


16

실제로 그렇게 할 수 있습니다. 단순성을위한 노력 : 모든 컨볼 루션 넷을 참조하십시오 . 풀링은 번역 불일치 량을 제공하는데 도움이 될 수도 있고 아닐 수도 있습니다. 또한 풀링은 회선보다 계산 속도가 빠릅니다. 그럼에도 불구하고 항상 회선으로 풀링을 보폭으로 바꾸고 더 나은 기능을 볼 수 있습니다.

일부 현재 작품은 평균 풀링 ( Wide Residual Networks , DenseNets )을 사용하고 다른 작품 은 보폭 ( DelugeNets )을 사용합니다.


나는 내 친구 중 한 명에게 이것에 대해 물었고 수영장 층은 비선형 성을 도입하기 때문에 더 좋습니다. 동의하십니까?
user3667089

7
동의하지 않습니다. 활성화 기능을 통해 어떤 종류의 비선형 성이 네트워크에 이미 존재합니다. 평균 풀링은 추가 비선형 성을 나타내지 않으며 선형 연산이므로 최대 풀링 만 비선형입니다. 그리고 풀링이 제공하는 정규화를 원한다면 질문이 더 많은 것 같습니다.
robintibor

4

최대 풀링은 이미지의 가장 선명한 기능을 추출하기 때문에 도움이됩니다. 따라서 이미지가 주어지면 가장 선명한 기능이 이미지의 가장 낮은 수준의 표현입니다. https://www.quora.com/What-is-the-benefit-of-using-average-pooling-rather-than-max-pooling

그러나 Andrew Ng의 Deep Learning 강의에 따르면 max pooling은 잘 작동하지만 아무도 이유를 모릅니다. Quote-> "그러나 사람들이 max pooling을 사용하는 주된 이유는 그것이 많은 실험에서 잘 작동하기 때문에 발견 되었기 때문이라고 생각합니다. ... 근본적인 이유. "

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.