나는 최근에 tf.nn.sparse_softmax_cross_entropy_with_logits 를 발견 했고 그 차이가 tf.nn.softmax_cross_entropy_with_logits 와 비교되는 것을 알 수 없습니다 .
y
를 사용할 때 훈련 벡터 가 원-핫 인코딩 되어야 한다는 유일한 차이점은 sparse_softmax_cross_entropy_with_logits
무엇입니까?
API를 읽으면서 .NET과 비교하여 다른 차이점을 찾을 수 없습니다 softmax_cross_entropy_with_logits
. 그런데 왜 추가 기능이 필요한가요?
원-핫 인코딩 된 학습 데이터 / 벡터와 함께 제공되는 경우 softmax_cross_entropy_with_logits
와 동일한 결과를 생성 하지 않아야 sparse_softmax_cross_entropy_with_logits
합니까?