경험칙에 확률 밀도 함수 최대 엔트로피를 갖는 x n } 은 { x 1 , x 2 , 에 대한 최소한의 지식에 해당하는 것으로 판명되었습니다 . . , . x n } 즉, 균일 분포입니다.{x1,x2,..,.xn}{x1,x2,..,.xn}
이제 더 공식적인 증거를 얻으려면 다음을 고려하십시오.
의 확률 밀도 함수 . . , . x n } 은 음이 아닌 실수 p 1 , 의 집합입니다 . . . , P는 N 1. 엔트로피까지 추가의 연속 함수이며 , N의 -tuples ( P 1 , . . . , P에 해당 ) ,이 점은 컴팩트 서브셋에 놓여 R N 그래서가, n은{x1,x2,..,.xn}p1,...,pnn(p1,...,pn)Rnn-tuple where entropy is maximized. We want to show this occurs at (1/n,...,1/n) and nowhere else.
Suppose the pj are not all equal, say p1<p2. (Clearly n≠1.) We will find a new probability density with higher entropy. It then follows, since entropy is maximized at
some n-tuple, that entropy is uniquely maximized at the n-tuple with pi=1/n for all i.
Since p1<p2, for small positive ε we have p1+ε<p2−ε. The entropy of {p1+ε,p2−ε,p3,...,pn} minus the entropy of {p1,p2,p3,...,pn} equals
증거를 완성하기 위해, 충분히 작은ε에대해 양수로 표시하고 싶습니다. 위의 방정식을
−p1log(1+ε
−p1log(p1+εp1)−εlog(p1+ε)−p2log(p2−εp2)+εlog(p2−ε)
ε−p1log(1+εp1)−ε(logp1+log(1+εp1))−p2log(1−εp2)+ε(logp2+log(1−εp2))
그 리콜 작은 대한 X , 상기 식 인
- ε - ε 로그 P 1 + ε + ε 로그 P 2 + O ( ε 2 ) = ε 로그 ( P 2 / P 1 ) + O ( ε 2 )
때 긍정적 인log(1+x)=x+O(x2)x
−ε−εlogp1+ε+εlogp2+O(ε2)=εlog(p2/p1)+O(ε2)
εp 1 < p 2 이후로 충분히 작음
p1<p2 .
덜 엄격한 증거는 다음과 같습니다.
먼저 다음의 Lemma를 고려하십시오.
하자 및 Q ( X를 ) 구간에 연속적인 확률 밀도 함수가 될
I 와 실제 숫자, P ≥ 0 및 Q > 0 의 I . 우리는이
- ∫ I 페이지 로그인 페이지 D X ≤ - ∫ I 페이지의 로그 Q D X를
모두 적분이 존재합니다. 또, 항등 경우에만,가 P ( X ) = Q (p(x)q(x)Ip≥0q>0I
−∫Iplogpdx≤−∫Iplogqdx
p(x)=q(x)모든
x .
이제 는 { x 1 ,의 확률 밀도 함수 라고하자 . . . , x n } , p i = p ( x i ) 입니다. 시키는 q를 나는 = 1 / n은 모든 I ,
- N Σ는 i가 = 1 P 나 로그 Q를 I를 = N Σ는 i가 = 1 P 나 로그 N을 =p{x1,...,xn}pi=p(xi)qi=1/ni
의 엔트로피 Q를 . 따라서 우리의 Lemma는 h ( p ) ≤ h ( q ) 라고 말하고 p 가 균일 한경우에만 동등합니다.
−∑i=1npilogqi=∑i=1npilogn=logn
qh(p)≤h(q)p
또한 위키피디아는 이것에 대한 간단한 토론을합니다 : wiki