Renyi 엔트로피는 어떤 의미에서 노름 과 유사 하므로 먼저 이러한 규범이 유용한 이유를 다시 생각해 봅시다.ℓp
숫자 의 벡터가 있다고 가정 합니다. 우리의 전형적인 요소를 어떻게하는지, 어떤 의미에서, 나타내는 단일 번호를 갖고 싶어 같은 모습을.a∈Rna
그렇게하는 한 가지 방법은 의 숫자 평균을 취하는 것이며 , 이는 대략 ℓ 1 규범에 해당합니다 . E 1 ≤ i ≤ n [ | 전 | ] . 이것은 종종 유용하지만, 일부 응용 프로그램은 다음과 같은 문제점이있다 : 첫 번째 ℓ (1) 규범이 우리에게 위의 가장 큰 요소에 바인딩 좋은 제공하지 않습니다 을 , 하나의 큰 요소 많은 제로의있는 경우 때문에 ℓ 1 규범은 가장 큰 요소보다 상당히 작습니다. 한편, ℓ 1aℓ1E1≤i≤n[|ai|]ℓ1aℓ1ℓ1규범은 또한의 요소 얼마나 작은에 바인딩 우리에게 좋은를 제공하지 않습니다 , 예를 들어, 얼마나 많은 제로 A는 이 문제가 이전과 정확히 같은 시나리오에서 발생 -이있다.aa
의 요소 때 물론, 위에서와 같은 극단적 인 시나리오에서와 같이 분산을 많이 가지고, 어떤 하나의 숫자는 위의 두 문제를 해결할 줄 수 있습니다. 우리는 트레이드 오프가 있습니다. 예를 들어 가장 큰 요소 만 알고 싶다면 ℓ ∞ 규범을 사용할 수 있지만 더 작은 요소에 대한 모든 정보를 잃게됩니다. 우리가 0의 수를 원한다면 ℓ 0 규범을 볼 수 있습니다 . 이것은 단지 a 의지지 크기입니다 .aℓ∞ℓ0a
이제 규범 을 고려하는 이유 는 두 극단 사이의 지속적인 상충 관계를 우리에게 제공하기 때문입니다. 큰 요소에 대한 더 많은 정보를 원하면 p 를 더 크게, 그 반대도 마찬가지입니다.ℓpp
Renyi의 엔트로피도 마찬가지입니다. Shanon의 엔트로피는 규범 과 같습니다. 그것은 요소의 "전형적인"확률에 관한 것이지만, 분산이나 극단에 대해서는 아무 것도 알려주지 않습니다. 최소 엔트로피는 가장 큰 확률로 요소에 대한 정보를 제공하지만 나머지에 대한 모든 정보는 손실됩니다. 지지대 크기는 다른 극단을 제공합니다. Renyi의 엔트로피는 두 극단 사이의 지속적인 균형을 제공합니다.ℓ1
예를 들어, Renyi-2 엔트로피는 Shanon의 엔트로피에 가깝기 때문에 분포의 모든 요소에 대한 정보를 포함하고 다른 한편으로는 가장 큰 요소에 대한 더 많은 정보를 제공하기 때문에 여러 번 유용합니다. 개연성. 특히, Renyi-2 엔트로피의 경계는 최소 엔트로피의 경계를 제공하는 것으로 알려져 있습니다 (예 : 부록 A 참조 : http://people.seas.harvard.edu/~salil/research/conductors-prelim .추신