이것은 실제로 내 분야가 아니므로 몇 가지 생각이 있습니다.
나는 놀람 의 개념으로 시작할 것이다 . 놀란다는 것은 무엇을 의미합니까? 일반적으로 예상치 못한 일이 발생했음을 의미합니다. 따라서, 그것은 확률 론적 개념을 놀라게하고 그렇게 설명 할 수 있습니다 (IJ Good이 그것에 대해 썼습니다). Wikipedia 및 Bayesian Surprise 도 참조하십시오 .
예 / 아니오 상황의 특별한 경우를 생각해보십시오. 확률 p 발생합니다 . p = 0.9라고해도 실제로 놀라지 않습니다. 경우 p=0.05 하고 그런 일이, 당신은 다소 놀라게된다. 그리고 p=0.0000001 이고 발생하면 정말 놀랍습니다. 따라서 "관찰 된 결과의 놀라운 가치"에 대한 자연스런 척도는 일어난 일의 확률에 대한 일부 (반) 모노톤 함수입니다. 일어난 일의 확률에 대한 로그를 취하는 것이 자연스럽고 잘 작동합니다. 그런 다음 양수를 얻기 위해 빼기 기호를 넣습니다. 또한, 대수를 취함으로써 우리는 놀라움의 순서에 집중하며, 실제로 확률은 종종 순서 대로만 알려져 있습니다.
따라서
서프라이즈 ( A ) = − logP ( )
여기서 A 는 관측 된 결과이고 p(A) 는 확률입니다.
이제 우리는 예상되는 놀라운 것이 무엇인지 물어볼 수 있습니다 . 하자 X 확률과 베르누이 확률 변수가 될 p . 가능한 결과는 0과 1입니다. 각각의 놀라움 값은
Surprise(0)Surprise(1)=−log(1−p)=−logp
관찰 놀랄 정도로X자체 기대를 가진 확률 변수
p⋅−logp+(1−p)⋅−log(1−p)
및 그 --- 놀람! ---X의 엔트로피! 그래서 엔트로피는놀랍습니다!
자,이 질문은 최대 엔트로피 에 관한 것 입니다. 왜 아무도 최대 엔트로피 분포를 사용하고 싶습니까? 글쎄, 그들은 최대로 놀라기를 원하기 때문입니다! 왜 그걸 원할까요?
그것을 보는 방법은 다음과 같습니다. 당신은 무언가에 대해 배우기를 원하며, 그 목표에 대해 몇 가지 학습 경험 (또는 실험 ...)을 설정합니다. 이 주제에 대한 모든 것을 이미 알고 있다면 항상 완벽하게 예측할 수 있으므로 결코 놀라지 않을 것입니다. 그런 다음 새로운 경험을 얻지 못하므로 새로운 것을 배우지 마십시오 (그러나 이미 모든 것을 알고 있습니다-배울 내용이 없으므로 괜찮습니다). 혼란스러워서 완벽하게 예측할 수없는보다 일반적인 상황에서는 학습 기회가 있습니다! 이것은 우리가 예상되는 놀람 , 즉 엔트로피에 의해 "가능한 학습량"을 측정 할 수 있다는 아이디어로 이어진다 . 엔트로피를 극대화하는 것은 학습의 기회를 극대화하는 것 외에는 아무것도 아닙니다. 이것은 유용한 개념처럼 들리는데, 이는 실험 등을 설계하는 데 유용 할 수 있습니다.
시적 예는 잘 알려져있다
Wenn einer eine reise macht, 댄 칸 어 erzählen ...
한 가지 실제적인 예 : 온라인 테스트를위한 시스템을 설계하려고합니다 (온라인은 모든 사람이 동일한 질문을받는 것은 아니며 이전 답변에 따라 질문이 동적으로 선택되므로 각 사람에 대해 어떤 방식 으로든 최적화 됨).
너무 어려운 질문을해서 절대 마스터하지 않으면 아무 것도 배우지 않습니다. 난이도를 낮춰야 함을 나타냅니다. 최적의 난이도, 즉 학습률을 극대화하는 난이도는 무엇입니까? 정답 확률이 p 합니다. 우리 는 Bernoulli 엔트로피를 최대화하는 p 의 값을 원합니다 . 그러나 그것은 p=0.5 입니다. 그래서 당신은 (그 사람으로부터) 정답을 얻을 확률이 0.5 인 질문을 목표로합니다.
그런 다음 연속 랜덤 변수 X . X 를 관찰하면 어떻게 놀랄 까요? 특정 결과의 확률 {X=x} 1, 제로 −logp 정의가 쓸모. 그러나 우리는 x 와 같은 것을 관찰 할 확률 이 작은 경우, 즉 밀도 함수 값 f(x) 이 작은 경우 ( f 가 연속적 이라고 가정 ) 놀랄 것 입니다. 이는 서프라이즈 ( x ) = − log f ( x ) 정의로 이어집니다.
Surprise(x)=−logf(x)
이 정의에서 X 를 관찰 할 때 예상되는 놀라움 은
E{−logf(X)}=−∫f(x)logf(x)dx
즉, 관찰로부터 예상 놀람X 의 차동 엔트로피X . 또한 예상 로그 가능성으로 볼 수 있습니다.
그러나 이것은 실제로 첫 번째 사건, 사건과 동일하지 않습니다. 예를 들어, 너무 참조하십시오. 랜덤 변수 X 는 돌 던지기의 길이를 나타냅니다 (예 : 스포츠 경기). 길이를 측정하려면 길이에 대한 고유 스케일이 없기 때문에 길이 단위를 선택해야합니다. 우리는 mm 또는 km 또는 더 일반적으로 미터 단위로 측정 할 수 있습니다. 그러나 놀람에 대한 우리의 정의는 예상되는 놀람은 선택한 단위에 달려 있으므로 불변은 없습니다. 이런 이유로, 차분 엔트로피의 값은 Shannon 엔트로피의 방식과 직접적으로 비교할 수 없습니다. 이 문제를 기억한다면 여전히 유용 할 것입니다.