«activation-function» 태그된 질문

2
활성화 기능을 선택하는 방법은 무엇입니까?
필요한 출력과 내가 알고있는 활성화 기능의 속성에 따라 출력 레이어의 활성화 기능을 선택합니다. 예를 들어, 확률을 다룰 때는 시그 모이 드 함수, 양의 값을 다룰 때는 ReLU, 일반 값을 다룰 때는 선형 함수를 선택합니다. 숨겨진 층에서는 누수 ReLU를 사용하여 ReLU 대신 죽은 뉴런을 피하고 S 자형 대신 tanh를 피합니다. 물론 …



1
ReLU vs Leaky ReLU 및 Parametric ReLU의 장점은 무엇입니까?
ReLU 대신 Leaky ReLU를 사용하는 이점은 이런 방식으로 사라지는 그라디언트를 가질 수 없다는 것입니다. 파라 메트릭 ReLU는 네가티브 입력에 대한 출력의 기울기가 학습 가능한 매개 변수 인 반면, Leaky ReLU에서는 하이퍼 파라미터라는 유일한 차이점과 동일한 장점이 있습니다. 그러나 Leaky ReLU 또는 Parametric ReLU 대신 ReLU를 사용하는 것이 더 편리한 경우가 …
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.