«shannon-entropy» 태그된 질문

4
Haskell의 seq 연산과 호환되는 기능에 대한 eta-equivalence가 있습니까?
Lemma : 에타와 동등하다고 가정하면 (\x -> ⊥) = ⊥ :: A -> B. 증명 : ⊥ = (\x -> ⊥ x)에타 동등성 및 (\x -> ⊥ x) = (\x -> ⊥)람다 감소. Haskell 2010 보고서, 섹션 6.2 seq는 두 가지 방정식으로 함수를 지정합니다 . seq :: a-> b-> b …

3
합의 엔트로피
두 개의 독립 이산 랜덤 변수 X 와 Y 의 합의 엔트로피 에 대한 경계를 찾고 있습니다. 당연히 H ( X + Y ) ≤ H ( X ) + H ( Y ) ( ∗ ) 그러나 n 개의 독립적 인 Bernoulli 랜덤 변수 Z 1 , … , …

2
Kolmogorov의 복잡성을 사용한 채널 코딩 결과
일반적으로 Shannon 엔트로피는 채널 코딩 결과를 증명하는 데 사용됩니다. 소스 채널 분리 결과에도 섀넌 엔트로피가 사용됩니다. Shannon (전역) 대 Kolmogorov (현지) 정보 개념 사이의 동등성을 감안할 때 이러한 결과에 Kolmogorov 복잡성을 활용하는 연구가 있었습니까 (또는 소스 채널 분리 결과에서 소스 코딩 부분을 대체 할 수는 없었습니까)?

1
“전시 적 엔트로피”라는 용어를 만든 사람은 누구입니까?
Shannon의 엔트로피 작업에 대해 알고 있지만 최근에는 경험적 엔트로피가 종종 저장소 분석의 일부로 사용 되는 간결한 데이터 구조를 연구했습니다. Shannon은 이산 정보 소스에 의해 생성 된 정보의 엔트로피를 다음과 같이 정의했습니다. −∑ki=1pilogpi−∑i=1kpilog⁡pi-\sum_{i=1}^k p_i \log{p_i}, 어디 pipip_i예를 들어 특정 문자가 생성되는 이벤트 발생 확률이며 가능한 이벤트가 있습니다.iiikkk 주석에서 MCH에 의해 지적 …
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.