2
확률로서의 상호 정보
관절 엔트로피를 통한 상호 정보는 다음과 같습니다. 0≤I(X,Y)H(X,Y)≤10≤I(X,Y)H(X,Y)≤1 0 \leq \frac{I(X,Y)}{H(X,Y)} \leq 1 "X에서 Y로 정보를 전달할 확률"? 순진한 것은 유감이지만 정보 이론을 연구 한 적이 없으며 그 개념을 이해하려고 노력하고 있습니다.
통신에 사용되는 것인지 또는 추상적 의미로 정의 된 것인지에 관계없이 채널의 정보 전달 용량을 결정하는 데 사용되는 수학 / 통계의 분기. 엔트로피는 정보 이론가들이 랜덤 변수 예측과 관련된 불확실성을 정량화 할 수있는 수단 중 하나입니다.