Affinity Propagation 알고리즘을 사용하여 확률 분포를 클러스터링 하고 Jensen-Shannon Divergence를 거리 메트릭으로 사용할 계획입니다.
JSD 자체를 거리 또는 JSD 제곱으로 사용하는 것이 맞습니까? 왜? 하나를 선택하면 어떤 차이점이 있습니까?
Affinity Propagation 알고리즘을 사용하여 확률 분포를 클러스터링 하고 Jensen-Shannon Divergence를 거리 메트릭으로 사용할 계획입니다.
JSD 자체를 거리 또는 JSD 제곱으로 사용하는 것이 맞습니까? 왜? 하나를 선택하면 어떤 차이점이 있습니까?
답변:
나는 그것이 어떻게 사용되는지에 달려 있다고 생각합니다.
다른 독자를 위해 참고로 와 Q 가 확률 측정 값이면 Jensen-Shannon Divergence는 J ( P , Q ) = 1입니다. 여기서R=1
이제 Jensen-Shannon Divergence의 제곱근 을 측정 하려고합니다. 즉 거리 측정의 모든 "직관적 인"속성을 만족시키기 때문입니다.
이에 대한 자세한 내용은
Endres and Schindelin, 확률 분포에 대한 새로운 지표 , IEEE Trans. 정보에. 그대의. , vol. 49 번 3, 2003 년 7 월, pp. 1858-1860.
물론 어떤 의미에서는 필요한 것에 달려 있습니다. 당신이 그것을 사용하는 모든 쌍 단위 측정을 평가하는 것이라면 JSD의 단조로운 변환이 작동합니다. "제곱 거리"에 가장 가까운 것을 찾고 있다면 JSD 자체가 비슷한 양입니다.
J(P,Q) = J(Q,P)
있습니다. JS 발산이 P와 Q에서 대칭이라는 것을 읽었습니다. 이것이 의미 JS(P,Q) = JS(Q,P)
합니까? KLdiv
의 flexmix
패키지에서 함수를 사용하고 있기 때문에 이것을 묻습니다 R
. 내 두 분포의 경우 KLdiv의 행렬 출력이 대칭이 아닙니다. JS 가이 문제를 해결할 것으로 기대했지만 JS의 출력 (KL을 사용하여 계산)은 대칭이 아닙니다.