Kullback-Leibler Divergence는 대칭 적이 지 않고 삼각형의 부등식을 만족시키지 않기 때문에 미터법에 맞지 않습니다. 따라서 두 분포에서 수행되는 "역할"은 다르므로 연구중인 실제 현상에 따라 이러한 역할을 분포시키는 것이 중요합니다.
우리가 쓸 때 (OP는 밑이 2 인 로그를 사용하여 표현식을 계산했습니다)
K(P||Q)=∑ilog2(pi/qi)pi
우리는 분포를 "목표 분포"(보통 실제 분포로 간주)로 간주하며, Q 분포 를 사용하여 근사합니다 .PQ
지금,
∑ilog2(pi/qi)pi=∑ilog2(pi)pi−∑ilog2(qi)pi=−H(P)−EP(ln(Q))
여기서 샤논 분포의 엔트로피 P 및 - E P ( LN ( Q ) ) 은 "교차 엔트로피라고 P 와 Q를 - 또한 비대칭은".H(P)P−EP(ln(Q))PQ
쓰기
K(P||Q)=H(P,Q)−H(P)
(여기서도, 우리가 교차 엔트로피 문제의 표현에 분포를 쓰는 순서는 대칭이 아니기 때문에), KL-Divergence가 피할 수없는 분포 의 엔트로피에 대한 엔트로피의 증가를 반영한다는 것을 알 수 있습니다 .P
그래서, 더 , KL-차이가 낫다 되지 분포 사이의 "거리 측정"으로 해석, 오히려 같은 수 엔트로피 증가의 측정으로 인해 실제 유통이 아닌 진정한 유통 자체에 근사치의 사용에 .
그래서 우리는 정보 이론의 땅에 있습니다. 마스터 (Cover & Thomas)로부터 들으려면 "
... 임의 변수 의 실제 분포 를 알고 있다면 평균 설명 길이 H ( P ) 로 코드를 구성 할 수 있습니다. 대신, 우리는 배포에 대한 코드를 이용하면 Q , 우리는 필요 H ( P ) + K가 ( P는 | | Q ) 평균적 비트 랜덤 변수를 설명하기.PH(P)QH(P)+K(P||Q)
같은 현명한 사람들이 말합니다
분포가 대칭 적이 지 않고 삼각 부등식을 만족시키지 않기 때문에 분포 사이의 실제 거리는 아닙니다. 그럼에도 불구하고 상대 엔트로피를 분포 사이의 "거리"로 생각하는 것이 종종 유용합니다.
그러나이 후자의 접근법은 일부 추정 절차를 최적화하기 위해 KL- 분산 을 최소화 하려고 할 때 주로 유용하다 . 수치 자체를 해석하는 데는 유용하지 않으며 "엔트로피 증가"접근 방식을 선호해야합니다.
질문의 특정 분포 (항상 밑이 2 인 로그를 사용)
K(P||Q)=0.49282,H(P)=1.9486
QP