커널은 기능 맵에 어떻게 적용되어 다른 기능 맵을 생성합니까?


44

컨볼 루션 신경망의 컨볼 루션 부분을 이해하려고합니다. 다음 그림을 보면 :

여기에 이미지 설명을 입력하십시오

4 개의 다른 커널 (크기 ) 이있는 첫 번째 회선 레이어를 이해하는 데 아무런 문제가 없습니다. 크기 는 입력 이미지와 함께 4 개의 기능 맵을 얻습니다.k×k

내가 이해하지 못하는 것은 4 개의 기능 맵에서 6 개의 기능 맵으로 이동하는 다음 회선 레이어입니다. 이 계층에 6 개의 커널 (결과적으로 6 개의 출력 기능 맵 제공)이 있다고 가정하지만 이러한 커널은 C1에 표시된 4 개의 기능 맵에서 어떻게 작동합니까? 커널은 3 차원입니까, 아니면 2 차원이며 4 개의 입력 기능 맵에서 복제됩니까?


1
나는 같은 곳에 갇혀있다. 불행히도 Yann Lecun의 논문은 그 사실을 설명하지 않습니다. 지난 며칠 동안 몇 가지 PDF와 비디오를 보았으며 모두가 그 부분을 건너 뛰는 것처럼 보입니다. Yann Lecun의 논문은 실제로 계층 2의 매핑 테이블을 사용하여 6 ~ 16 개의 피쳐 맵에 대해 이야기합니다. 첫 번째 출력 피쳐 맵은 0,1,2 개의 입력 피쳐 맵에서 입력을받습니다. 그러나 출력 기능 맵은 10 x 10이고 3 개의 입력 기능 맵은 14 x 14입니다. 그러면 어떻게 작동 했습니까? 무슨 일이 있었는지 이해 했습니까? 3D 커널입니까? 또는 location * kernel (convolution)의 출력을 평균화합니까?
Run2

답변:


18

커널은 3 차원으로 너비와 높이를 선택할 수 있으며 깊이는 입력 레이어의 맵 수와 동일합니다.

그것들은 확실히 2 차원이 아니며, 동일한 2D 위치에서 입력 피처 맵에 복제됩니다! 즉, 커널은 입력 기능 맵에서 하나의 동일한 가중치를 사용하기 때문에 주어진 위치에서 입력 기능을 구별 할 수 없습니다!


5

레이어와 커널간에 일대일 대응이 반드시 필요한 것은 아닙니다. 특정 아키텍처에 따라 다릅니다. 게시 한 그림은 S2 레이어에 이전 레이어의 모든 기능 맵, 즉 서로 다른 가능한 기능 조합을 결합하는 6 개의 기능 맵이 있음을 나타냅니다.

더 이상의 언급이 없으면 더 이상 말할 수 없습니다. 예를 들어이 논문을보십시오


특히 LeNet-5를보고 있으며이 deeplearning.net/tutorial/lenet.html 을 참조로 사용하고 있습니다. 그 페이지에서 커널은 3 차원이지만 100 % 명확하지는 않습니다.
utdiscant

2
그런 다음이 백서를 읽어야합니다 ( yann.lecun.com/exdb/publis/pdf/lecun-01a.pdf ). 8 페이지에서 여러 계층이 연결되는 방법에 대해 설명합니다. 앞에서 말했듯이 레이어의 각 기능 레이어는 이전 레이어의 여러 기능을 동일한 위치에 결합합니다.
jpmuc

2
연결이 끊어졌습니다.
jul September


0

이 기사는 도움이 될 수 있습니다 : 깊은 학습에 회선을 이해 함으로써 팀 Dettmers 년 3 월 26 일부터

그것은 첫 번째 컨볼 루션 레이어 만 설명하기 때문에 실제로 질문에 대답하지는 않지만 CNN의 컨볼 루션에 대한 기본적인 직관에 대한 좋은 설명이 포함되어 있습니다. 또한 컨볼 루션에 대한 더 깊은 수학적 정의를 설명합니다. 질문 주제와 관련이 있다고 생각합니다.


1
사이트에 오신 것을 환영합니다. 우리는 질문과 답변의 형태로 고품질 통계 정보의 영구 저장소를 구축하려고합니다. 따라서 우리는 linkrot으로 인해 링크 전용 답변에주의를 기울입니다. 링크가 종료 된 경우 링크에 정보를 요약하고 요약하여 게시 할 수 있습니까?
gung-모니 티 복원

@ gung, 통지 주셔서 감사합니다, 개념을 오해하여 죄송합니다. 상황은 :이 기사는 실제로 질문에 대답하지 않지만 CNN에 대한 기본 직관을 찾고있을 때이 질문을 발견했으며 기본 직관을 검색 하고이 질문을 얻은 사람 에게이 기사를 도움이되기를 바랍니다. 좋아, 삭제하는 것이 낫지? 감사합니다.
아나톨리 바실리 예프

'이 기사는 생각을위한 음식이 될 수 있지만 질문에 완전히 대답하지는 않습니다.'라고 말하는 것이 좋습니다. 여기에 가치가있을 수 있습니다. 연결이 끊어 질 경우 완전한 인용을 제공하고 포함 된 정보를 요약하십시오.
gung-모니 티 복원

추가 정보에 감사드립니다. 논문 (저자, 연도, 제목, 저널 등) 및 내용 요약에 대한 완전한 인용을 제공 할 수 있습니까?
gung-모니 티 복원

물론 @gung. 그러나이 기사는이 블로그에만있는 것처럼 보이므로 다른 유용한 정보를 찾을 수 없습니다. 나의 견해를 분명히 해주셔서 감사합니다
Anatoly Vasilyev
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.