최근 에 1x1 회선에 대한 Yan LeCuns 의견을 읽었습니다 .
Convolutional Nets에는 "완전히 연결된 레이어"와 같은 것은 없습니다. 1x1 컨볼 루션 커널과 전체 연결 테이블이있는 컨볼 루션 레이어 만 있습니다.
ConvNet에 고정 된 크기의 입력이 필요하지 않다는 사실은 매우 드물게 이해됩니다. 공간 출력 범위없이 단일 출력 벡터를 생성하는 입력에 대해 입력을 훈련 한 다음 더 큰 이미지에 적용 할 수 있습니다. 단일 출력 벡터 대신 출력 벡터의 공간 맵을 얻습니다. 각 벡터는 입력의 다른 위치에서 입력 창을 봅니다. 이 시나리오에서 "완전히 연결된 레이어"는 실제로 1x1 컨볼 루션 역할을합니다.
이에 대한 간단한 예를보고 싶습니다.
예
네트워크가 완전히 연결되어 있다고 가정하십시오. 입력 레이어와 출력 레이어 만 있습니다. 입력 레이어에는 3 개의 노드가 있고 출력 레이어에는 2 개의 노드가 있습니다. 이 네트워크에는 매개 변수가 있습니다. 좀 더 구체적으로 만들기 위해 출력 레이어와 가중치 매트릭스에 ReLU 활성화 기능이 있다고 가정 해 봅시다.
컨벌루션 레이어는 어떻게 같아야합니까? LeCun은 "전체 연결 테이블"이란 무엇입니까?