누군가 순수하게 수학적으로 엄격한 방식으로 Fisher 정보 지표와 상대 엔트로피 (또는 KL 분기) 사이의 다음 연결을 증명할 수 있습니까 ?
Vasileios Anagnostopoulos가 코멘트에서 그것에 대해 말한 John Baez 의 멋진 블로그에서 위의 내용을 찾았습니다 .
누군가 순수하게 수학적으로 엄격한 방식으로 Fisher 정보 지표와 상대 엔트로피 (또는 KL 분기) 사이의 다음 연결을 증명할 수 있습니까 ?
Vasileios Anagnostopoulos가 코멘트에서 그것에 대해 말한 John Baez 의 멋진 블로그에서 위의 내용을 찾았습니다 .
답변:
1946 년 지구 물리학 자와 베이지안 통계학자인 Harold Jeffreys는 오늘날 우리가 쿨백-레 블러 발산이라고 부르는 것을 소개했으며, "무한히 가까운"두 분포에 대해 발견했습니다. Kullback-Leibler 분기는 Fisher 정보 매트릭스의 요소에 의해 계수가 제공되는 2 차 형태로 나타납니다. 그는이 2 차 형태를 Riemannian 매니 폴드의 길이 요소로 해석했으며 Fisher 정보는 Riemannian 메트릭의 역할을합니다. 통계 모델의 이러한 형상화에서, 그는 Jeffreys의 사전을 Riemannian 메트릭에 의해 자연적으로 유도 된 측정 값으로 도출했으며,이 측정 값은 매니 폴드에 본질적으로 균일 한 분포로 해석 될 수 있지만 일반적으로 유한 측정 값은 아닙니다.
엄격한 증거를 작성하려면 모든 확장 성 조건을 확인하고 Taylor 확장에서 오류 용어의 순서를 처리해야합니다. 다음은 인수에 대한 간단한 스케치입니다.
두 밀도 와 사이의 대칭 쿨백-레 블러 발산 은 다음과 같이 정의됩니다.
우리는에 의해 파라미터 밀도의 가족이있는 경우 다음
이것은 원본 용지입니다.
제프리, H. (1946). 추정 문제의 사전 확률에 대한 변하지 않는 형태. Proc. 로얄 삭스 런던, 시리즈 A, 186, 453–461.
다음 논문의 식 (3)에서 유사한 관계 (1 차원 매개 변수)를 찾을 수 있습니다.
D. Guo (2009), 상대 엔트로피 및 점수 함수 : Proc. 에서 임의의 추가 섭동을 통한 새로운 정보-추정 관계 . 정보 이론에 관한 IEEE 국제 심포지엄 , 814–818. ( 안정적인 링크 ).
저자는
S. 쿨백, 정보 이론 및 통계 . 뉴욕 : 1968 년 도버.
이 결과의 증거.