배경 : relu 활성화로 신경망을 맞추는 동안 때로는 예측이 거의 일정하다는 것을 알았습니다. 나는 이것이 여기에 언급 된 훈련 중 죽는 relu 뉴런 때문이라고 생각합니다. ( 신경망에서 "dying ReLU"문제는 무엇입니까? )
질문 : 코드 자체에서 뉴런이 죽었는지 확인하기 위해 검사를 구현하는 것이 좋습니다. 그 후, 코드는 필요한 경우 네트워크에 맞출 수 있습니다.
따라서 죽은 뉴런을 확인하는 좋은 기준은 무엇입니까? 현재 예측에서 낮은 분산을 확인하는 것을 인용으로 생각하고 있습니다.
도움이된다면 keras를 사용하십시오.