답변:
그렇게 간단하지 않습니다. 우선, SVM은 일종의 신경망입니다 (역 전파를 통해 SVM 솔루션을 배울 수 있음). 참조 * * 인공 신경망 무엇입니까? . 둘째, 어떤 모델이 더 잘 작동하는지 미리 알 수는 없지만, 완전한 신경 형성 아키텍처를 사용하여 엔드 투 엔드 가중치를 배울 수 있으며 CNN의 마지막 숨겨진 레이어 활성화에 SVM 또는 RF를 연결하는 것은 단순히 임시 절차입니다. 테스트하지 않으면 알 수 없을 수도 있습니다.
중요한 부분은 완전한 컨볼 루션 아키텍처가 표현 학습을 할 수 있다는 것인데, 이는 수많은 이유로 유용합니다. 한 번은 문제의 기능 엔지니어링을 줄이거 나 없앨 수 있습니다.
FC 레이어는 수학적으로 1x1 Convolutional 레이어와 동일합니다. Yann Lecun의 게시물을 참조하십시오 .
Convolutional Nets에는 "완전히 연결된 레이어"와 같은 것은 없습니다. 1x1 회선 커널과 전체 연결 테이블이있는 회선 레이어 만 있습니다.
ConvNets에 고정 크기의 입력이 필요하지 않다는 사실은 매우 드물게 이해됩니다. 공간 출력 범위없이 단일 출력 벡터를 생성하는 입력에 대해 입력을 훈련 한 다음 더 큰 이미지에 적용 할 수 있습니다. 단일 출력 벡터 대신 출력 벡터의 공간 맵을 얻습니다. 각 벡터는 입력의 다른 위치에서 입력 창을 봅니다.
이 시나리오에서 "완전히 연결된 레이어"는 실제로 1x1 컨볼 루션 역할을합니다.
No-Free Lunch Theorem (Wolpert & Macready) 을 알고 있다면 , 한 분류 자에 매달리지 않고 왜 이것이 최고가 아닌지 묻습니다. NFL 정리는 본질적으로 "모든 비용 함수의 우주에는 최고의 분류 기가 하나도 없다"고 명시합니다. 둘째, 분류기 성능은 항상 "데이터에 달려 있습니다."
미운 오리 새끼 정리 (와타나베) "의 모든 기능 세트의 우주, 기능 아무도 최선의 세트가 없다."고 본질적으로 상태
Cover 'Theorem 은 즉, 데이터의 차원이 표본 크기보다 크면 이진 분류 문제는 항상 선형으로 분리 가능 하다고 말합니다 .
위와 Occam 's Razor에 비추어 볼 때 데이터 및 비용 함수와 상관없이 다른 것보다 더 좋은 것은 없습니다.
저는 CNN 자체가 다양성 (kappa vs error)을 평가할 수있는 분류기의 앙상블이 아니라고 항상 주장했습니다.