와 사이의 Kullback-Leiber Divergence는 쉽게 도출 할 수있는 상호 정보와 동일합니다.p ( X, Y)피( X) P( Y)
나는( X; 와이)= H( Y) - H( Y∣ X)= − ∑와이p ( y) 로그p ( y) + ∑x , yp ( x ) p ( y∣ x ) 로그p ( y∣ x )= ∑x , yp ( x , y) 로그p ( y∣ x ) − ∑와이( ∑엑스p ( x , y) ) 로그p ( y)= ∑x , yp ( x , y) 로그p ( y∣ x ) − ∑x , yp ( x , y) 로그p ( y)= ∑x , yp ( x , y) 로그p ( y∣ x )p ( y)= ∑x , yp ( x , y) 로그p ( y∣ x ) p ( x )p ( y) p ( x )= ∑x , yp ( x , y) 로그p ( x , y)p ( y) p ( x )= D케이엘( P( X, Y) ∣ ∣ P( X) P( Y) )
참고 :p ( y) = ∑엑스p ( x , y)