신경망으로 오토 인코더를 구현할 때 대부분의 사람들은 활성화 기능으로 시그 모이 드를 사용합니다.
대신 ReLU를 사용할 수 있습니까? ReLU에는 상한에 대한 제한이 없으므로 기본적으로 시그 모이 드를 사용할 때 자동 인코더에 대한 제한된 기준과 달리 입력 이미지의 픽셀 수가 1보다 클 수 있습니다.
신경망으로 오토 인코더를 구현할 때 대부분의 사람들은 활성화 기능으로 시그 모이 드를 사용합니다.
대신 ReLU를 사용할 수 있습니까? ReLU에는 상한에 대한 제한이 없으므로 기본적으로 시그 모이 드를 사용할 때 자동 인코더에 대한 제한된 기준과 달리 입력 이미지의 픽셀 수가 1보다 클 수 있습니다.
답변:
여기에 몇 가지 문제가있을 수 있지만이를 수행 할 수 있음을 나타내는 토론 스레드 (2013 년 7 월부터)가 있습니다.
Çağlar Gülçehre (Yoshua Bengio의 연구실)는 Knowledge Matters 에서 다음 기술을 성공적으로 사용했다고 말했습니다 .
첫 번째 DAE를 평소대로 훈련하지만 숨겨진 레이어에 정류기를 사용
a1(x) = W1 x + b1 h1 = f1(x) = rectifier(a1(x)) g1(h1) = {sigmoid}(V1 h1 + c1)
하여 g1 (f1 (corrupt (x)))와 x를 비교하여 교차 엔트로피 또는 MSE 손실을 최소화하십시오. S 자형은 데이터에 따라 선택 사항입니다.
h2 = f2(h1) = rectifier(W2 h1 + b2) g2(h2) = softplus(V2 h2 + c2)
Bengio 연구소의 Xavier Glorot 은 두 도메인 적응 모두에서 을 "활성화 값에 대한 페널티"(아마도 ?)로 바꾸는 것을 제외하고는 동일한 작업을 수행했다고 밝혔다. 대규모 감정 분류 : 딥 러닝 접근법 (ICML 2011) 및 딥 스파 스 정류기 신경망 (AISTATS 2011).