공동으로 전형적인 세트의 정의 ( "정보 요소의 요소", 7.6, p. 195)에서 우리는
은 의 시퀀스 의 경험적 엔트로피 로 . 나는이 용어를 전에 본 적이 없다. 책의 색인에 따라 명시 적으로 정의되어 있지 않습니다.p ( x n ) = ∏ n i = 1 p ( x i )
내 질문은 기본적으로 : 경험적 엔트로피가 왜 가 아닌가? 여기서 는 경험적 분포입니까?
이 두 공식의 가장 흥미로운 차이점과 유사점은 무엇입니까? (공유하거나 공유하지 않는 속성의 측면에서).
두 표현이 대수적으로 같지 않습니까?
—
whuber
@ whuber : 아니요, 수량이 다르며 다른 목적으로 사용됩니다. 첫 번째는 선험적으로 알려진 실제 측정 값 p를 사용합니다 . 두 번째는 그렇지 않습니다.
—
추기경
전자는 시간에 따른 엔트로피의 축적과 그것이 시스템의 실제 엔트로피와 어떻게 비교되는지에 관한 것이다. SLLN과 CLT는 동작 방식에 대해 많은 것을 알려줍니다. 두 번째는 데이터에서 엔트로피를 추정 하는 것과 관련 이 있으며 그 특성 중 일부는 방금 언급 한 동일한 두 도구를 통해 얻을 수 있습니다. 그러나 첫 번째는 편견이 없지만 두 번째는 p 아래에 있지 않습니다 . 도움이 될 경우 세부 정보를 작성할 수 있습니다.
—
추기경
@cardinal : 위의 설명을 답변으로 제공한다면 (SLLN과 CLT가 무엇인지 설명 할 수 있습니까?-나는 이것들을 모르겠습니다) 나는 기꺼이지지 할 것입니다 ...
—
blubb
좋아, 나중에 더 게시하려고합니다. 그 동안 SLLN = "큰 숫자의 강력한 법칙"및 CLT = "중앙 한계 정리". 이것들은 당신이 다시 만날 가능성이 매우 높은 표준 약어입니다. 건배. :)
—
추기경