이와 같은 계산에서 로그의 사용은 정보 이론 에서 비롯됩니다 . KL 분기의 특별한 경우, 측정 값은 두 분포의 상대 정보로 해석 될 수 있습니다.
케이L (에프~∥에프θ)=∫− ∞∞에프~( x ) ( 로그에프~( x ) − 로그에프θ( x ) ) d 엑스= (−∫− ∞∞에프~( x ) 로그에프θ( x ) d 엑스H(에프~,에프θ)) − (−∫− ∞∞에프~( x ) 로그에프~( x ) d 엑스H(에프~)) ,
여기서 은 IS 엔트로피 의 및 상기 교차 엔트로피 와 . 엔트로피는 밀도에 의해 생성 된 평균 속도의 척도로 간주 될 수 있습니다 (교차 엔트로피는 좀 더 복잡하다고 생각합니다). 고정 값 대한 KL 발산을 최소화하는 것은 (앞서 언급 한 문제에서와 같이) 교차 엔트로피를 최소화하는 것과 동일하므로이 최적화는 정보 이론적 해석을 제공 할 수 있습니다.H(에프~)에프~H(에프~,에프θ)에프~에프θ에프~
짧은 포스트에서 정보 이론과 정보 측정의 속성을 잘 설명 할 수는 없습니다. 그러나 통계와 밀접한 관련이 있으므로 필드를 살펴 보는 것이 좋습니다. 밀도의 로그에 대한 적분과 합을 포함하는 많은 통계 측정은 측정 이론에 사용되는 표준 정보 측정의 간단한 조합이며, 이러한 경우 다양한 밀도 등의 기본 정보 수준에 대한 해석을 제공 할 수 있습니다.