엔트로피는 위치와 규모에 어떻게 의존합니까?


14

밀도 함수 를 갖는 연속 분포 의 엔트로피 는 의 기대 값과 동일하지 않으므로 다음과 같습니다.flog(f),

Hf=log(f(x))f(x)dx.

또한 분포가 밀도 갖는 임의의 변수 는 엔트로피 갖는다 고 (이 적분은 가 그러한 값에서 0이 될 수 있기 때문에 에 0이있는 경우에도 잘 정의 됩니다.)XfHf.flog(f(x))f(x)

되면 및 있는 랜덤 변수 ( 상수이다), 버전 것으로 알려져 어긋나게 마찬가지로 ( 는 양의 상수) 인 경우 는 의해 크기가 조정 된 버전이라고합니다스케일과 시프트를 결합하면XYY=X+μμYX μ.Y=XσσYX σ.Y=Xσ+μ.

이러한 관계는 자주 발생합니다. 예를 들어, 의 측정 단위를 변경하면 크기가 이동하고 크기가 조정됩니다.X

의 엔트로피는 의 엔트로피와 어떤 관련이Y=Xσ+μX?

답변:


17

확률 요소 때문에 인 변수의 변화 동등 어디서부터Xf(x)dx,y=xσ+μx=(yμ)/σ,

f(x)dx=f(yμσ)d(yμσ)=1σf(yμσ)dy

그것의 밀도 것을 다음 인Y

fY(y)=1σf(yμσ).

결과적으로 의 엔트로피 는Y

H(Y)=log(1σf(yμσ))1σf(yμσ)dy

변수를 다시 하면x=(yμ)/σ,

H(Y)=log(1σf(x))f(x)dx=(log(1σ)+log(f(x)))f(x)dx=log(σ)f(x)dxlog(f(x))f(x)dx=log(σ)+Hf.

이 계산은 로그의 기본 속성, 적분의 선형성 및 가 단일성 (총 확률 법칙)으로 통합 된다는 사실을 사용했습니다 .f(x)dx

결론은

엔트로피 의 엔트로피 플러스Y=Xσ+μXlog(σ).

즉, 임의 변수를 이동해도 엔트로피는 변경되지 않지만 (우리는 확률 밀도 값에 따라 엔트로피를 생각할 수 있지만 해당 값이 발생하는 위치는 아닌 것으로 생각할 수 있음) 변수를 스케일링하는 동안 ( "스트레치"또는 "번짐"은 만큼 엔트로피를 증가시킵니다 이것은 높은 엔트로피 분포가 낮은 엔트로피 분포보다 "더 널리 퍼져"있다는 직감을 지원합니다.σ1log(σ).


이 결과로 분포의 엔트로피를 계산할 때 편리한 및 값을 자유롭게 선택할 수 있습니다 . 예를 들어, 및 을 설정 하면 정규 분포 의 엔트로피를 찾을 수 있습니다이 경우 밀도의 로그는μσ(μ,σ)μ=0σ=1.

log(f(x))=12log(2π)x2/2,

어떻게

H=E[12log(2π)X2/2]=12log(2π)+12.

결과적 으로이 결과에 를 추가 하여 정규 분포 의 엔트로피를 얻습니다.(μ,σ)logσ

H=12log(2π)+12+log(σ)=12log(2πeσ2)

Wikipedia에 의해보고 된대로 .

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.