log (p (x, y))는 점별 상호 정보를 어떻게 정규화합니까?


9

표준화 된 형태의 상호 정보를 이해하려고합니다.

npmi=pmi(x,y)log(p(x,y))

로그 결합 확률이 점별 상호 정보를 [-1, 1] 사이로 정규화하는 이유는 무엇입니까?

포인트 별 상호 정보는 다음과 같습니다.

pmi=log(p(x,y)p(x)p(y))

p (x, y)는 [0, 1]에 의해 제한되므로 log (p (x, y))는 (, 0]에 의해 제한됩니다. 분자, 그러나 나는 어떻게 정확하게 이해하지 못한다. 그것은 또한 엔트로피를 생각 나게한다. h=log(p(x))하지만 다시는 정확한 관계를 이해하지 못합니다.


우선 포인트 간 상호 정보 는 로그를 사용합니다 (오타 또는 다른 수량을 사용하고 있는지 확실하지 않습니다 ).
Piotr Migdal

답변:


12

포인트 별 상호 정보 에 대한 Wikipedia 항목에서 :

포인트 상호 정보는 [-1, + 1] 사이에서 정규화되어 함께 발생하지 않는 경우 -1 (한계), 독립성에 대해 0, 완전한 동시 발생에 대해 +1이 될 수 있습니다.

왜 그런가요? 포인트 상호 정보 의 정의 는

pmilog[p(x,y)p(x)p(y)]=logp(x,y)logp(x)logp(y),

반면 정규화 된 포인트 단위 상호 정보 는 다음과 같습니다.

npmipmilogp(x,y)=log[p(x)p(y)]logp(x,y)1.

있을 때 :

  • 공동 발생 없음 logp(x,y)따라서 nmpi 는 -1입니다.
  • 임의의 동시 발생 logp(x,y)=log[p(x)p(y)]따라서 nmpi 는 0입니다.
  • 완전한 동시 발생 logp(x,y)=logp(x)=logp(y)따라서 nmpi 는 1입니다.

npmi가 왜 간격에 있는지를 보여주는 더 완전한 대답이 될 것입니다. [1,1]. 다른 답변에서 내 증거를 참조하십시오.
한스

1

Piotr Migdal의 대답은 nmpi가 세 가지 극단 값을 얻는 예제를 제공하는 데 유익하지만 간격에 있음을 증명하지는 않습니다. [1,1]. 불평등과 그 파생은 다음과 같습니다.

logp(x,y)logp(x,y))logp(x)logp(y)=logp(x,y)p(x)p(y)=:pmi(x;y)=logp(y|x)+logp(y|x)logp(x,y)logp(x,y)
같이 logp(A)0 어떤 행사 든 A. 양수를 음수가 아닌 것으로 나누기h(x,y):=logp(x,y)우리는
1nmpi(x;y):=mpi(x;y)h(x,y)1.

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.