두 개의 이산 분포 및 에 대해 교차 엔트로피는 다음과 같이 정의됩니다.q
이것이 왜 두 확률 분포 사이의 거리를 직관적으로 측정 할 수 있을지 궁금합니다.
그 볼 의 엔트로피 , 측정치 「놀람」 . 는 를 부분적으로 대체하는 측정 값입니다 . 나는 여전히 정의의 직관적 인 의미를 이해하지 못한다.p p H ( p , q ) p q
1
측정치 (및 거리)의 수학적 정의를 찾아 보는 것이 좋습니다. 일반적으로 이러한 속성을 따르는 것이 함수가 따라야 할 최소한의 것입니다. 도움이 되길 바랍니다. 비록 . 직관적으로, KL 발산의 일부인 함수이기 때문에 엔트로피 p에 의해 p와 q의 오프셋의 일종으로 가정합니다. 그러나 그것은 단지 추측입니다. 또한 발산은 메트릭 / 거리가 아니므로 Cross Entropy가 놀랍습니다.
—
찰리 파커
그런 이해 Kullback_leibler 발산 이해 크로스 엔트로피하는 데 도움이 : stats.stackexchange.com/questions/188903/...을
—
할보 르센 kjetil B
다음은 KL Divergence를 명확하고 간단한 방법으로 설명하는 멋진 비디오입니다. youtube.com/watch?v=ErfnhcEV1O8
—
Katherine Chen
이 "교차 엔트로피 뒤에 숨은 직관"이 도움이되는지 확인하십시오. medium.com/@siddharth.4oct/…
—
Siddharth Roy