Jeffries Matusita의 장점


11

내가 읽는 일부 논문에 따르면 Jeffries와 Matusita 거리가 일반적으로 사용됩니다. 그러나 아래 공식을 제외하고는 그것에 대한 많은 정보를 찾을 수 없었습니다.

JMD (x, y) =(xi2yi2)22

제곱근을 제외하고 유클리드 거리와 유사합니다.

E (x, y) =(xiyi)22

JM 거리는 분류 측면에서 유클리드 거리보다 신뢰할 수 있다고 주장됩니다. 왜이 차이가 JM 거리를 향상시키는 지 설명 할 수 있습니까?


1
Jeffries-Matusita 거리에 대해이 공식을 사용하는 신뢰할만한 참조를 찾을 수 없습니다. 내가 찾은 공식은 두 클래스의 공분산 행렬을 기반으로하며 여기에 주어진 것과 관련이없는 것처럼 보이지만이 이름으로 알려진 두 가지 (또는 그 이상) 다른 것이있을 수 있습니다. 참조를 제공하거나 링크를 제공 할 수 있습니까? BTW, 와 계산 됩니까? (그렇다면 공식에 대한 자연스런 해석이 있습니다.)xiyi
whuber

1
@ whuber : 아마도 와 는xyp(x)q(x)
user603

@ user603 그렇습니다. 이제 KL과의 연결이 분리되고 Battacharyya 측정 값이 분명해집니다.
whuber

답변:


14

아래에서 더 긴 설명을하기 전에 몇 가지 주요 차이점은 다음과 같습니다.

  1. 결정적으로 : Jeffries-Matusita 거리는 일반적으로 벡터가 아니라 분포에 적용됩니다.
  2. 위에서 인용 한 JM 거리 공식은 불연속 확률 분포를 나타내는 벡터 (즉, 합계가 1 인 벡터)에만 적용됩니다.
  3. 유클리드 거리와 달리 JM 거리는 Bhattacharrya 거리를 공식화 할 수있는 모든 분포로 일반화 할 수 있습니다.
  4. JM 거리에는 Bhattacharrya 거리를 통해 확률 론적 해석이 있습니다.

Remote Sensing 문헌에서 특히 인기가있는 Jeffries-Matusita 거리는 Bhattacharrya 거리 (두 분포 사이의 비 유사성 척도, 여기서 표시됨)를 고정 범위 :bp,q[0,inf)[0,2]

JMp,q=2(1exp(b(p,q))

이 논문 에 따르면 JM 거리의 실질적인 이점은 이 측정법이 "분리 성 값이 지나치게 강조되는 반면 높은 분리 성 값을 억제하는 경향이 있다는 것"입니다.

Bhattacharrya 거리는 다음과 같은 연속적인 의미에서 두 분포 와 의 비 유사성을 측정합니다 . 분포 그리고 는 단위 길이 벡터로 표시되는 히스토그램으로 캡처됩니다 (여기서 번째 요소는 개의 빈에 대한 정규화 된 카운트입니다 ). 결과적으로 두 히스토그램의 JM 거리는 다음과 같습니다. 정규화 된 히스토그램의 경우pq

b(p,q)=lnp(x)q(x)dx
pqiiN
b(p,q)=lni=1Npiqi
JMp,q=2(1i=1Npiqi)
ipi=1, 위에서 제공 한 공식과 동일합니다.
JMp,q=i=1N(piqi)2=i=1N(pi2piqi+qi)=2(1i=1Npiqi)

+1 상황을 명확하게하기 위해 최선을 다한 노력에 감사드립니다.
whuber
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.