15 ReLU 활성화 기능의 미분은 무엇입니까? R의 전자 L U ( X ) = m X ( 0 , X )ReLU(x)=max(0,x) 에서 함수에 불연속성이있는 특수한 경우는 어떻습니까?x = 0x=0 self-study neural-networks — 톰 헤일 소스
17 파생 상품은 다음과 같습니다. 에프( x ) = { 01만약 X < 0만약 X > 0f(x)={0if x<01if x>0 그리고 정의되어 있지 않습니다 .x = 0x=0 에서 정의되지 않은 이유 는 왼쪽과 오른쪽 미분 이 같지 않기 때문입니다.x=0x=0 — 짐 소스 1 0011x=0x=0 2 컨벤션은 drdx = 1 (x> 0) — neuroguy123 @TomHale 사용하지 않는 이유f(0)=12f(0)=12 3 그런데 @TomHale은 quora.com/에서 Nouroz Rahman의 답변을 참조하십시오 : "[...] 내 견해로는 내장 라이브러리 함수 (예 :) 에서 x = 0의 미분은 0을 취하여 스파 저 를 만듭니다 . matrix ... "tf.nn.relu() — Jim