«it.information-theory» 태그된 질문

정보 이론의 질문

3
합의 엔트로피
두 개의 독립 이산 랜덤 변수 X 와 Y 의 합의 엔트로피 에 대한 경계를 찾고 있습니다. 당연히 H ( X + Y ) ≤ H ( X ) + H ( Y ) ( ∗ ) 그러나 n 개의 독립적 인 Bernoulli 랜덤 변수 Z 1 , … , …

2
Kolmogorov의 복잡성을 사용한 채널 코딩 결과
일반적으로 Shannon 엔트로피는 채널 코딩 결과를 증명하는 데 사용됩니다. 소스 채널 분리 결과에도 섀넌 엔트로피가 사용됩니다. Shannon (전역) 대 Kolmogorov (현지) 정보 개념 사이의 동등성을 감안할 때 이러한 결과에 Kolmogorov 복잡성을 활용하는 연구가 있었습니까 (또는 소스 채널 분리 결과에서 소스 코딩 부분을 대체 할 수는 없었습니까)?

1
양자 상태의 구별
양자의 상태가 주어지는 들의 세트로부터 임의로 선택 혼합 상태 정확하게 식별하는 최대 평균 확률 무엇 ? N ρ 1 . . . ρ N AρㅏρA\rho_A엔NNρ1. . . ρ엔ρ1...ρN\rho_1 ... \rho_NㅏAA 이 문제는 를 와 구별하는 문제를 고려하여 두 가지 상태 구별 문제로 전환 될 수 있습니다 .ρ B = 1ρㅏρA\rho_Aρ비= …

1
간단한 (?) 재미있는 조합 문제!
0<E<10<E<100. 어떤 대한 nnn 및 벡터 c¯∈[0,1]nc¯∈[0,1]n\bar{c} \in [0,1]^n 되도록 ∑i∈[n]ci≥E×n∑i∈[n]ci≥E×n\sum_{i\in [n]} c_i \geq E \times n Ac¯:=|{S⊆[n]:∑i∈S ci≥E×t}|≥(E×nt)Ac¯:=|{S⊆[n]:∑i∈S ci≥E×t}|≥(E×nt)A_{\bar{c}} :=|\{ S \subseteq [n] : \sum_{i \in S}~ c_i \geq E \times t \}| \geq \binom{ E \times n}{ t } 나는 그 진술이 참인지 모르겠다. 나는 그것이 사실이라고 생각합니다. …

4
계산 복잡성과 정보의 관계
나는 뉴런의 쌍 또는 그룹 사이의 상호 정보를 정량화하는 계산 신경 과학 실험실에서 일합니다. 최근에 상사는 "신경 역학의 복잡성"측정에 초점을 맞췄다. 이 연구 라인을 추구하면서, 우리 그룹의 일부 사람들은 "복잡한"과 "높은 엔트로피가있다"를 동일시하는 것으로 보입니다. 누구든지 정보 이론적 의미에서 계산 복잡성 (CS 의미에서)과 엔트로피의 관계가 무엇인지 안내해 줄 수 있습니까? …


2
파노의 불평등과의 대화?
파노의 불평등 은 여러 형태로 언급 될 수 있으며, 특히 유용한 것은 오데드 레게 브 (Oded Regev )에게있다 (사소한 수정) . 하자 확률 변수, 그리고하자 여기서 랜덤 프로세스이다. 주어진 가 를 확률 재구성 할 수 있는 프로 시저 의 존재가 있다고 가정하십시오 . 그런 다음 XXXY=g(X)Y=g(X)Y = g(X)g(⋅)g(⋅)g(\cdot)fffy=g(x)y=g(x)y = g(x)xxxpppI(X;Y)≥pH(X)−H(p)I(X;Y)≥pH(X)−H(p) …

2
서브 세트 번호 매기기
수정하십시오 k≥5k≥5k\ge5. 충분히 큰 nnn , { 1 ... T }의 양의 정수 로 크기가 정확히 n / k 인 {1..n}{1..n}\{1..n\} 의 모든 서브 세트에 레이블을 지정하려고 합니다. 이 레이블이 다음 속성을 만족시키기를 원합니다. 정수 세트 S , st가 있습니다n/kn/kn/k{1...T}{1...T}\{1...T\}SSS 경우 kkk 크기의 부분 집합 n/kn/kn/k 하지 교차 할 (즉, …

1
최소 코인 무게 측정 수 결정
정보 이론의 두 가지 문제에 관한 논문 에서 Erdõs와 Rényi는 동전 세트에서 허위 동전의 수를 결정하기 위해 수행해야하는 최소 계량 수에 대한 하한을 제시합니다 .엔nn 더 공식적으로 : 거짓 동전은 오른쪽 동전보다 무게가 작습니다. 오른쪽 동전과 거짓 동전 모두 의 가중치 와 가 알려져 있습니다. 스케일은 임의의 수있는 수단에 의해 …


1
Lovasz 세타 함수 및 정규 그래프 (특히 이상한주기)-스펙트럼 이론에 연결
이 게시물과 관련이 있습니다 : /mathpro/59631/lovasz-theta-function-and-independence-number-of-product-of-simple-odd-cycles Lovasz는 일반 그래프의 제로 오류 용량과 얼마나 멀리 떨어져 있습니까? Lovasz 경계가 정규 그래프의 제로 오류 용량과 동일하지 않은 것으로 알려진 예가 있습니까? (Oleksandr Bondarenko가 아래에 답변했습니다.) 특히 이상의 크면의 홀수 사이클에 대해 알려진 모든 불평등이 있습니까?777 업데이트 간격이 존재하는 경우 Shannon 용량과 Lovasz …

3
다 항적으로 알 수있는 정보에 대한 정보 이론의 일반화가 있습니까?
죄송합니다. 이것은 "부드러운"질문입니다. 정보 이론에는 계산 복잡성의 개념이 없습니다. 예를 들어, SAT의 인스턴스, 또는 SAT의 인스턴스 및 만족도를 나타내는 비트에 동일한 양의 정보가 전달된다. "다 항적으로 알 수있는"개념을 공식화하는 방법이 있습니까? 이러한 프레임 워크는 예를 들어 Y가 주어진 다항식 시간에서 X를 계산하는데 필요한 비트 수로서 랜덤 변수 X 상대 Y …

2
여러 번의 시도에서 낮은 엔트로피 값 추측
Alice에게 분포가 있다고 가정 μμ\mu 유한 한 (그러나 아마도 매우 큰) 도메인을 통해 (Shannon) 엔트로피 μμ\mu 임의로 작은 상수에 의해 상한 εε\varepsilon. 앨리스는 가치를 그립니다엑스엑스x ...에서 μμ\mu그런 다음 Bob에게 묻습니다. μμ\mu) 추측합니다 엑스엑스x. Bob의 성공 확률은 무엇입니까? 그가 한 번의 추측 만 허용한다면, 다음과 같이이 확률을 하한으로 낮출 수 있습니다.2− …

2
낮은 확률 좌표가없는 높은 확률 이벤트
허락하다 XXX 값을 취하는 랜덤 변수이다 ΣnΣn\Sigma^n (일부 큰 알파벳의 경우 ΣΣ\Sigma엔트로피가 매우 높은 H(X)≥(n−δ)⋅log|Σ|H(X)≥(n−δ)⋅log⁡|Σ|H(X) \ge (n- \delta)\cdot\log|\Sigma| 임의로 작은 상수 δδ\delta. 허락하다E⊆Supp(X)E⊆Supp(X)E \subseteq \rm{Supp}(X) 다음을지지하는 행사가되다 XXX 그런 Pr[X∈E]≥1−εPr[X∈E]≥1−ε\Pr[X \in E] \ge 1 - \varepsilon여기서 은 임의로 작은 상수입니다.εε\varepsilon 우리는 한 쌍의 말 A는 낮은 확률 좌표 의 경우 …

1
시끄러운 분포의 엔트로피
우리 함수가 있다고 되도록 , 는 분포입니다. 즉 입니다.f:Zn2→Rf:Z2n→Rf:\mathbb{Z}_2^n \to \mathbb{R}∀x∈Zn2f(x)∈{12n,22n,…,2n2n},∀x∈Z2nf(x)∈{12n,22n,…,2n2n},\forall x\in \mathbb{Z}_2^n \quad f(x) \in \left\{\frac{1}{2^n}, \frac{2}{2^n}, \ldots, \frac{2^n}{2^n} \right\},fff∑x∈Zn2f(x)=1∑x∈Z2nf(x)=1\sum_{x\in \mathbb{Z}_2^n} f(x) = 1 의 Shannon 엔트로피는 다음과 같이 정의됩니다 : fffH(f)=−∑x∈Zn2f(x)log(f(x)).H(f)=−∑x∈Z2nf(x)log⁡(f(x)).H(f) = -\sum _{x \in \mathbb{Z}_2^n} f(x) \log \left( f(x) \right) . 하자 어떤 일정. 우리가 얻을 말 …

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.