«sigmoid-curve» 태그된 질문

4
tanh가 활성화 함수로 sigmoid보다 거의 항상 더 나은 이유는 무엇입니까?
Coursera 의 Andrew Ng의 Neural Networks and Deep Learning 과정에서 그는 tanhtanhtanh 를 사용하는 것이 를 사용하는 것보다 거의 항상 바람직 하다고 말합니다 .sigmoidsigmoidsigmoid 그가 준 이유는 's 0.5 대신 center를 사용하는 출력이 약 0이기 때문에 "다음 층에 대한 학습이 조금 더 쉬워진다"는 것입니다.s i g m o i dtanhtanhtanhsigmoidsigmoidsigmoid …

3
숨겨진 레이어 뉴런으로서 Relu vs Sigmoid vs Softmax
Tensorflow에 의해 숨겨진 레이어가 하나 인 간단한 신경망을 가지고 놀고 있었고 숨겨진 레이어에 대해 다른 활성화를 시도했습니다. 렐루 시그 모이 드 Softmax (일반적으로 softmax는 마지막 레이어에서 사용됩니다.) Relu는 최고의 열차 정확도 및 검증 정확도를 제공합니다. 이것을 설명하는 방법을 잘 모르겠습니다. 우리는 Relu가 그라디언트 사라짐과 같은 희소성과 같은 좋은 특성을 가지고 …
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.