엔트로피는 시스템에 얼마나 많은 불확실성이 있는지 알려줍니다. 고양이를 찾고 있다고 가정 해 봅시다. 집과 이웃 사이에 있으며 1 마일 거리에 있습니다. 당신의 아이들은 고양이가 집에서 거리 에있을 확률이 베타 분포 f ( x ; 2 , 2 )에 의해 가장 잘 묘사 된다고 말합니다 . 고양이는 0과 1 사이의 어느 곳이 될 수 있지만 가능성이 중간, 즉에있을 그래서 X 해요 X = 1 / 2 .x f(x;2,2)xmax=1/2
베타 분포를 방정식에 꽂으면 됩니다.H=−0.125
다음으로 아내에게 물어 보면 고양이에 대한 지식을 설명하는 가장 좋은 분포는 균일 한 분포라고합니다. 엔트로피 방정식에 연결하면 됩니다.H=0
유니폼 배포판과 베타 배포판 모두 고양이가 집에서 0 마일에서 1 마일 사이에있을 수 있지만, 아내가 고양이가 숨어있는 곳에서 실마리가없고, 아이들이 어떤 생각을 가지고 있기 때문에 유니폼에 더 많은 불확실성 이 있습니다. 중간에있을 가능성이 높습니다. 이것이 베타의 엔트로피가 유니폼의 엔트로피보다 낮은 이유입니다.
그의 베타 분포로, 그래서 당신은 아마 당신의 이웃은 고양이가 어느 집의 근처로 좋아하는 당신을 알려줍니다, 다른 배포판을 시도 할 수 있습니다 . 그것의 H는 당신이 고양이를 찾을 수있는 위치에 대한 몇 가지 아이디어를 얻을 수 있기 때문에, 다시 일정보다 낮아야합니다. 이웃의 정보 엔트로피가 자녀의 엔트로피보다 높거나 낮은 지 추측하십니까? 나는이 문제에 대해 언젠가 아이들에게 내기를 걸었다.α=β=1/2H
최신 정보:
Δp
p′i=p−Δp
p′j=p+Δp
H−H′=pilnpi−piln(pi−Δp)+pjlnpj−pjln(pj+Δp)
= p lnp - p ln[ p ( 1 − Δ p / p ) ] + p lnp - p ln[p(1+Δp/p)]
=−ln(1−Δp/p)−ln(1+Δp/p)>0
This means that any disturbance from the uniform distribution reduces the entropy (uncertainty). To show the same in continuous case, I'd have to use calculus of variations or something along this line, but you'll get the same kind of result, in principle.
UPDATE 2:
The mean of n균일 랜덤 변수는 랜덤 변수 자체이며 Bates 분포에서 온 것 입니다. 에서 CLT 우리가 알고있는이 새로운 확률 변수의 분산 정신과로n → ∞. 따라서 위치의 불확실성이 증가함에 따라 감소해야합니다엔: 우리는 고양이가 중간에 있다는 것을 점점 더 확신합니다. 다음 플롯과 MATLAB 코드는 엔트로피가 0에서 어떻게 감소하는지 보여줍니다.n = 1 (균일 분포) n = 13. 여기서 distributions31 라이브러리를 사용 하고 있습니다.
x = 0:0.01:1;
for k=1:5
i = 1 + (k-1)*3;
idx(k) = i;
f = @(x)bates_pdf(x,i);
funb=@(x)f(x).*log(f(x));
fun = @(x)arrayfun(funb,x);
h(k) = -integral(fun,0,1);
subplot(1,5+1,k)
plot(x,arrayfun(f,x))
title(['Bates(x,' num2str(i) ')'])
ylim([0 6])
end
subplot(1,5+1,5+1)
plot(idx,h)
title 'Entropy'