특히, 나는이 진술에 대해 궁금해한다고 생각합니다.
TensorFlow의 향후 주요 버전에서는 기본적으로 그라디언트가 backprop의 레이블 입력으로 흐를 수 있습니다.
내가 사용할 때 표시됩니다 tf.nn.softmax_cross_entropy_with_logits
. 같은 메시지에서 나는 그것을 볼 것을 촉구한다 tf.nn.softmax_cross_entropy_with_logits_v2
. 나는 문서를 살펴 보았지만 다음과 같은 내용만을 언급했다 tf.nn.softmax_cross_entropy_with_logits_v2
.
역전 파는 로짓과 레이블 모두에서 발생합니다. 역 전파를 레이블로 전파하지 못하게하려면이 함수에 레이블 텐서를 전달하기 전에 stop_gradients를 통해 레이블 텐서를 전달하십시오.
반대로, tf.nn.softmax_cross_entropy_with_logits
'S :
역전 파는 로지트에만 발생합니다.
주제에 대해 매우 익숙하기 때문에 (일부 기본 자습서를 통해 노력하고 있습니다) 이러한 진술은 명확하지 않습니다. 나는 역 전파에 대해 깊이 이해하고 있지만 이전 진술은 실제로 무엇을 의미합니까? 역전 파와 라벨은 어떻게 연결되어 있습니까? 그리고 이것이 tf.nn.softmax_cross_entropy_with_logits_v2
원본과 달리 작업 방식을 어떻게 변경 합니까?
softmax_..._with_logits_v2
작동softmax_with_logits
합니까? (또는 labels 변수에 tf.stop_gradient를 사용할 수도 있습니다.)