답변:
예를 들어 이미지에 다양한 객체가 있는지 확인하는 네트워크와 같이 출력에 여러 개의 "true"답변이 허용되는 경우에만 간단한 시그 모이 드를 사용하십시오. 즉, 결과는 확률 분포가 아닙니다 (1을 합할 필요는 없음).
나는 파티에 늦을지도 모르지만 여기에서 정리해야 할 것이있는 것 같습니다.
이것이 선형 활성화가 이진 / 멀티 클래스 분류를위한 회귀 및 로지스틱 / 소프트 맥스 활성화에 종종 사용되는 이유입니다. 그러나 다른 조합을 시도하지 않아도됩니다. 의 표현이지만
둘째, 숨겨진 레이어에 사용할 수있는 활성화 기능이 많이 있다고 덧붙이고 싶습니다. 로지스틱 함수 및 쌍곡 탄젠트와 같은 시그 모이 드는 실제로 잘 작동하는 것으로 입증되었지만 Jatin 에 따르면 네트워크가 너무 깊어지면 그라디언트가 사라집니다. 이 경우 ReLU가 인기를 얻었습니다. 그래도 강조하고 싶은 것은 사용 가능한 활성화 기능이 훨씬 더 많으며 다른 연구자들이 새로운 기능 (예 : 지수 선형 단위 (ELU), 가우스 오차 선형 단위 (GELU) 등)을 계속 찾고 있다는 것입니다. 더 나은 속성
결론 : 최고의 활성화 기능을 찾을 때 창의력을 발휘하십시오. 다른 것들을 시도하고 어떤 조합이 최고의 성능을 이끌어 내는지보십시오.
부록 : 더 많은 쌍의 손실 함수와 활성화를 위해서는 아마도 (정규적인) 링크 함수 를 찾고 싶을 것입니다
Sigmoid와 tanh는 숨겨진 레이어의 활성화 기능으로 사용해서는 안됩니다. 이는 사라지는 그래디언트 문제로 인해 발생합니다. 즉, 입력이 높은 쪽 (시그 모이 드가 평평한 곳)에 있으면 그래디언트는 0에 가까워집니다. 가중치가 실제로 작은 값으로 업데이트되므로 역 전파 동안 학습 속도가 매우 느리거나 전혀 발생하지 않습니다.
자세한 설명은 여기 : http://cs231n.github.io/neural-networks-1/#actfun
따라서 숨겨진 레이어에 가장 적합한 기능은 ReLu입니다.