«autoencoders» 태그된 질문

자신의 입력을 재구성하도록 훈련 된 피드 포워드 신경망. 일반적으로 숨겨진 레이어 중 하나는 "병목 현상"으로 인코더-> 디코더 해석으로 이어집니다.

2
오토 인코더 신경망의 기원은 무엇입니까?
Google, Wikipedia, Google Scholar 등을 검색했지만 자동 인코더의 출처를 찾을 수 없습니다. 어쩌면 그것은 매우 점진적으로 진화 한 개념 중 하나 일 것입니다. 분명한 출발점을 찾아내는 것은 불가능하지만 여전히 개발의 주요 단계에 대한 요약을 찾고 싶습니다. autoencoders 장 이안 Goodfellow, 요 수아 벤 지오와 아론 Courville의 깊은 학습 책은 말합니다 …


1
자동 인코더에서 ReLU를 활성화 기능으로 사용할 수 있습니까?
신경망으로 오토 인코더를 구현할 때 대부분의 사람들은 활성화 기능으로 시그 모이 드를 사용합니다. 대신 ReLU를 사용할 수 있습니까? ReLU에는 상한에 대한 제한이 없으므로 기본적으로 시그 모이 드를 사용할 때 자동 인코더에 대한 제한된 기준과 달리 입력 이미지의 픽셀 수가 1보다 클 수 있습니다.

2
단위 가우스로 KL 손실
VAE를 구현하고 있으며 단순화 된 단 변량 가우시안 KL 발산에 대해 온라인에서 두 가지 다른 구현을 발견했습니다. 당 원래 발산 여기가 있다 이전의 단위 가우스 인 것으로 가정하면 (예 : 및 ) 단순화됩니다. 여기에 혼란이 있습니다. 위의 구현으로 몇 가지 모호한 github repos를 찾았지만 더 일반적으로 사용되는 것은 다음과 같습니다.케이엘L …

1
이 자동 인코더 네트워크가 제대로 작동 할 수 없음 (컨볼 루션 및 최대 풀 레이어 사용)
오토 인코더 네트워크는 일반 분류 자 ​​MLP 네트워크보다 훨씬 까다로운 것으로 보입니다. Lasagne를 사용하여 여러 번 시도한 후에 재구성 된 출력에서 ​​얻는 것은 입력 숫자가 실제로 무엇인지에 대한 구분없이 MNIST 데이터베이스 의 모든 이미지의 모호한 평균과 유사 합니다. 내가 선택한 네트워크 구조는 다음 캐스케이드 계층입니다. 입력 레이어 (28x28) 2D 컨볼 …

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.