답변:
병목 현상 계층은 이전 계층에 비해 노드가 거의없는 계층입니다. 치수가 감소 된 입력 표현을 얻는 데 사용할 수 있습니다. 이에 대한 예는 비선형 차원 축소를 위해 병목 현상 레이어가있는 자동 인코더를 사용하는 것입니다.
인용문에 대한 나의 이해는 이전의 접근 방식이 딥 네트워크를 사용하여 얼굴을 분류한다는 것입니다. 그런 다음 입력에서 일부 중간 계층 (예 : 노드를 포함 하는 번째 계층) 까지이 네트워크의 처음 몇 계층을 가져옵니다 . 이 서브 네트워크는 입력 공간에서 차원 벡터 공간으로 의 매핑을 구현합니다 . 노드의 활성화의 벡터 있도록 번째 층은, 병목 층 번째 층은 상기 입력의 하부 차원 표현을 제공한다. 원래 네트워크는 훈련되지 않은 새로운 아이덴티티를 분류하는 데 사용할 수 없습니다. 그러나이 층은 일반적으로면의 양호한 표현을 제공 할 수있다. 따라서 새로운 아이덴티티를 배우기 위해 번째 레이어 위에 새로운 분류기 레이어를 쌓고 훈련 할 수 있습니다 . 또는, 새로운 트레이닝 데이터는 번째 계층 으로부터 표현을 얻기 위해 서브 네트워크를 통해 공급 될 수 있고 , 이러한 표현은 다른 분류기에 공급 될 수있다.