필요한 출력과 내가 알고있는 활성화 기능의 속성에 따라 출력 레이어의 활성화 기능을 선택합니다. 예를 들어, 확률을 다룰 때는 시그 모이 드 함수, 양의 값을 다룰 때는 ReLU, 일반 값을 다룰 때는 선형 함수를 선택합니다.
숨겨진 층에서는 누수 ReLU를 사용하여 ReLU 대신 죽은 뉴런을 피하고 S 자형 대신 tanh를 피합니다. 물론 숨겨진 단위로 선형 함수를 사용하지 않습니다.
그러나 숨겨진 레이어에서 선택하는 것은 주로 시행 착오에 의한 것입니다.
어떤 상황에서 어떤 활성화 기능이 효과적 일지에 대한 경험 규칙이 있습니까? 가능한 일반적인 상황 이라는 용어 를 사용하십시오. 레이어의 깊이, NN의 깊이, 해당 레이어의 뉴런 수, 선택한 옵티 마이저, 입력 기능의 수를 나타냅니다. 해당 계층,이 NN의 응용 프로그램 등
에서 그 / 그녀의 대답 , cantordust 내가 ELU 및 SELU 같은 언급하지 않았다 다른 활성화 기능을 말합니다. 이 정보는 환영하는 것 이상입니다. 그러나 활성화 기능이 많을수록 숨겨진 레이어에서 사용할 기능을 선택하는 데 더 혼란 스럽습니다. 그리고 나는 동전을 뒤집는 것이 활성화 기능을 선택하는 좋은 방법이라고 생각하지 않습니다.