2
ReLU가 활성화 기능으로 사용되는 이유는 무엇입니까?
활성화 함수는 w * x + b신경망 에서 유형의 선형 출력에 비선형 성을 도입하는 데 사용됩니다 . 나는 sigmoid와 같은 활성화 기능을 직관적으로 이해할 수 있습니다. 나는 역 전파 동안 죽은 뉴런을 피하는 ReLU의 장점을 이해합니다. 그러나 출력이 선형 인 경우 ReLU가 활성화 기능으로 사용되는 이유를 이해할 수 없습니다. 비선형 …