확률 요소 때문에 인 변수의 변화 동등 어디서부터Xf(x)dx,y=xσ+μx=(y−μ)/σ,
f(x)dx=f(y−μσ)d(y−μσ)=1σf(y−μσ)dy
그것의 밀도 것을 다음 인Y
fY(y)=1σf(y−μσ).
결과적으로 의 엔트로피 는Y
H(Y)=−∫∞−∞log(1σf(y−μσ))1σf(y−μσ)dy
변수를 다시 하면x=(y−μ)/σ,
H(Y)=−∫∞−∞log(1σf(x))f(x)dx=−∫∞−∞(log(1σ)+log(f(x)))f(x)dx=log(σ)∫∞−∞f(x)dx−∫∞−∞log(f(x))f(x)dx=log(σ)+Hf.
이 계산은 로그의 기본 속성, 적분의 선형성 및 가 단일성 (총 확률 법칙)으로 통합 된다는 사실을 사용했습니다 .f(x)dx
결론은
엔트로피 의 엔트로피 플러스Y=Xσ+μXlog(σ).
즉, 임의 변수를 이동해도 엔트로피는 변경되지 않지만 (우리는 확률 밀도 값에 따라 엔트로피를 생각할 수 있지만 해당 값이 발생하는 위치는 아닌 것으로 생각할 수 있음) 변수를 스케일링하는 동안 ( "스트레치"또는 "번짐"은 만큼 엔트로피를 증가시킵니다 이것은 높은 엔트로피 분포가 낮은 엔트로피 분포보다 "더 널리 퍼져"있다는 직감을 지원합니다.σ≥1log(σ).
이 결과로 분포의 엔트로피를 계산할 때 편리한 및 값을 자유롭게 선택할 수 있습니다 . 예를 들어, 및 을 설정 하면 정규 분포 의 엔트로피를 찾을 수 있습니다이 경우 밀도의 로그는μσ(μ,σ)μ=0σ=1.
log(f(x))=−12log(2π)−x2/2,
어떻게
H=−E[−12log(2π)−X2/2]=12log(2π)+12.
결과적 으로이 결과에 를 추가 하여 정규 분포 의 엔트로피를 얻습니다.(μ,σ)logσ
H=12log(2π)+12+log(σ)=12log(2πeσ2)
Wikipedia에 의해보고 된대로 .