그렇기 때문에 PReLU, ELU 또는 기타 누출 된 ReLU 유사 활성화를 사용하는 것이 더 좋은 아이디어 일 것입니다. 0으로 돌아 가지 않고 x가 학습을 계속하기 위해 음수가되면 0.1 * x와 같이 떨어집니다. ReLUs가 시그 모이 드와 같은 역사 인 것은 오랫동안 나에게 보였지만 어떤 이유로 사람들은 여전히 이것으로 논문을 출판합니다. 왜? 모르겠어요
Dmytro Mishkin과 다른 사람들은 실제로 다양한 활성화 유형으로 네트워크를 테스트했습니다. 다른 활성화 기능 및 기타 항목의 성능에 대한 조사 결과를 조사 해야합니다. 그러나 XOR과 같은 일부 기능은 일반 ReLU를 통해 더 잘 학습됩니다. 신경망은 진행중인 작업이 많기 때문에 교리 적 용어로 신경을 생각하지 마십시오. 세상의 어느 누구도 신성한 진리를 말할만큼 충분히 그들을 알고 이해하지 못합니다. 아무도 사물을 시험 해보고 직접 발견하십시오. ReLU 자체를 사용하는 것은 매우 최근의 개발이며 수십 년 동안 해당 분야의 모든 다른 박사 학위 담당자는 이제 우리가 웃을 수있는 지나치게 복잡한 활성화 기능을 사용했습니다. 너무 자주 "알고"나쁜 결과를 얻을 수 있습니다. 신경망은 정확한 과학이 아니라는 것을 이해하는 것이 중요합니다. 수학에서는 신경망이 실제로는 정상적으로 작동한다고 말합니다. 휴리스틱입니다. 그리고 그것은 매우 가단성입니다.
참고로 절대 값 활성화조차도 XOR와 같은 문제와 같은 일부 문제에서 좋은 결과를 얻습니다. 다른 활성화 기능은 다른 목적에 더 적합합니다. abs ()를 사용하여 Cifar-10을 시도했는데 성능이 떨어지는 것 같습니다. 예를 들어 사전 초기화가 최적인지 등이 확실하지 않기 때문에 "시각 인식을위한 더 나쁜 활성화 기능"이라고 말할 수는 없습니다. 상대적으로 배우고 있다는 사실은 잘 놀랐습니다.
또한 실제로는 백프로 프에 전달하는 "유도체"가 실제 수학적 파생물과 반드시 일치 할 필요는 없습니다.
예를 들어 "파생 제"라고 부르지 말고 다른 것을 부르기 시작해야 할 정도로 말입니다. error activation functions
그들과 함께 땜질의 가능성에 우리의 마음을 닫지 않습니다. 예를 들어 실제로 ReLU 활성화를 사용할 수 있지만 x <0의 파생물로 0 대신 0.1 또는 이와 유사한 것을 제공 할 수 있습니다. 어떤 식 으로든, 당신은 평범한 ReLU를 가지게되지만, 뉴런은 "적응성이 없어 질 수 없습니다". 저는 이것을 NecroRelu라고 부릅니다. 왜냐하면 그것은 죽을 수없는 ReLU이기 때문입니다. 그리고 어떤 경우에는 (거의 대부분은 아니지만) 일반 LeakyReLU보다 더 효과적이며, 실제로 x <0에서 0.1 미분을 가지며 일반적인 ReLU보다 낫습니다. 나는 너무 많은 다른 사람들이 그러한 기능을 조사했다고 생각하지는 않지만, 이것 또는 이와 비슷한 것이 실제로 수학에 너무 집중되어 있기 때문에 아무도 고려하지 않은 일반적으로 멋진 활성화 기능 일 수 있습니다.
일반적으로 사용되는 것과 관련하여 tanH (x) 활성화 함수의 경우 일을 더 빨리 계산하기 위해 1-tanH (x) ² 대신 1-xH² 대신 미분을 전달하는 것이 일반적입니다.
또한 ReLU가 예를 들어 TanH보다 "분명히 낫다"는 것은 아닙니다. 경우에 따라 TanH가 더 나을 수 있습니다. 시각적 인 인식이 아닌 것 같습니다. 예를 들어, ELU에는 약간의 시그 모이 드 부드러움이 있으며 현재 시각 인식을 위해 가장 잘 알려진 활성화 기능 중 하나입니다. 실제로 시도하지는 않았지만 동일한 레이어 수준에서 다른 활성화 기능을 가진 여러 그룹을 유리하게 설정할 수 있습니다. 서로 다른 논리는 다른 활성화 기능으로 더 잘 설명되기 때문입니다. 때로는 여러 유형의 평가가 필요할 수도 있습니다.
활성화 기능의 유형에 해당하는 초기화가 중요합니다. 예를 들어 새는 ReLU에는 일반 ReLU와 같은 다른 초기화가 필요합니다.
편집 : 실제로 표준 ReLU는 최신 아키텍처를 사용하는 누출에 비해 과적 합하는 경향이 적습니다. 적어도 이미지 인식에서. 엄청난 양의 매개 변수로 매우 높은 정확도를 얻으려면 일반 ReLU 대 누출 옵션을 사용하는 것이 좋습니다. 그러나 물론이 모든 것을 직접 테스트하십시오. 더 많은 정규화가 주어지면 누출 된 물건이 더 잘 작동 할 수 있습니다.