나는 당신의 질문에 대한 명확한 대답이 없다고 생각합니다. 그러나 기존의 지혜는 다음과 같습니다.
기본적으로 학습 알고리즘의 가설 공간이 커짐에 따라 알고리즘은 더욱 풍부하고 풍부한 구조를 학습 할 수 있습니다. 그러나 동시에 알고리즘이 과적 합되기 쉽고 일반화 오류가 증가 할 가능성이 있습니다.
따라서 궁극적으로 주어진 데이터 세트에 대해 실제 데이터 구조를 학습 할 수있는 충분한 용량을 갖춘 최소 모델로 작업하는 것이 좋습니다. 그러나 일반적으로 "데이터의 실제 구조"는 알려져 있지 않으며, 종종 후보 모델의 용량까지도 모호하게 이해되기 때문에 이는 매우 손쉬운 조언입니다.
신경망과 관련하여 가설 공간의 크기는 매개 변수의 수에 의해 제어됩니다. 그리고 고정 된 수의 매개 변수 (또는 고정 된 크기의 순서)에 대해 더 깊어지면 모델이 더 풍부한 구조 (예 : 이 백서 ) 를 캡처 할 수 있습니다 .
더 적은 수의 매개 변수로 더 깊은 모델의 성공 여부를 부분적으로 설명 할 수 있습니다. VGGNet (2014 년)은 ~ 140M 매개 변수를 가진 16 개의 레이어를 가지고있는 반면 ResNet (2015 년부터)은 152 개의 레이어로 이길 수 있지만 ~ 2M 매개 변수 만
(한 편으로, 더 작은 모델은 계산하기가 더 쉬울 수 있지만 깊이가 실제로 훈련을 복잡하게하기 때문에 그 자체가 중요한 요소라고 생각하지 않습니다)
이 경향 (더 깊이 있고 매개 변수가 적음)은 대부분 비전 관련 작업 및 회선 네트워크에 존재하며, 이는 도메인 별 설명을 요구합니다. 여기 또 다른 관점이 있습니다.
컨볼 루션 레이어의 각 "뉴런"에는 "수용 필드"가 있으며, 이는 각 출력에 영향을주는 입력의 크기와 모양입니다. 직관적으로 각 커널은 근처 입력 사이의 관계를 캡처합니다. 그리고 작은 커널 (일반적이고 선호되는)은 작은 수용 필드를 가지므로 지역 관계에 관한 정보 만 제공 할 수 있습니다.
그러나 더 깊이 들어가면 일부 초기 계층에 대한 각 뉴런의 수용 장이 커집니다. 따라서 딥 레이어는 전역 의미 론적 의미와 추상적 세부 사항 (관계의 관계 ... 객체 관계의 관계)을 갖춘 기능을 제공하면서도 작은 커널 (네트워크가 배우는 관계를 정규화하고 수렴 및 일반화하는 데 도움이되는)을 사용합니다.
따라서 컴퓨터 비전에서 심층 컨볼 루션 네트워크의 유용성은 이미지와 비디오의 공간 구조로 부분적으로 설명 될 수 있습니다. 다른 유형의 문제 나 비 벌집 구조의 경우 깊이가 실제로 제대로 작동하지 않을 때가 있습니다.