클러스터링 : Jensen-Shannon Divergence 또는 해당 사각형을 사용해야합니까?


답변:


20

나는 그것이 어떻게 사용되는지에 달려 있다고 생각합니다.

다른 독자를 위해 참고로 Q 가 확률 측정 값이면 Jensen-Shannon Divergence는 J ( P , Q ) = 1입니다. 여기서R=1

제이(,)=12((∣∣아르 자형)+(∣∣아르 자형))
는 중간 점 측정 값이고D()는 Kullback-Leibler 분기입니다.아르 자형=12(+)(∣∣)

이제 Jensen-Shannon Divergence의 제곱근측정 하려고합니다. 즉 거리 측정의 모든 "직관적 인"속성을 만족시키기 때문입니다.

이에 대한 자세한 내용은

Endres and Schindelin, 확률 분포에 대한 새로운 지표 , IEEE Trans. 정보에. 그대의. , vol. 49 번 3, 2003 년 7 월, pp. 1858-1860.

물론 어떤 의미에서는 필요한 것에 달려 있습니다. 당신이 그것을 사용하는 모든 쌍 단위 측정을 평가하는 것이라면 JSD의 단조로운 변환이 작동합니다. "제곱 거리"에 가장 가까운 것을 찾고 있다면 JSD 자체가 비슷한 양입니다.

또한 이 이전 질문 과 관련 답변 및 토론에 관심 있을 수도 있습니다 .


쿨, 나는 가능한 빨리 "확률 분포에 대한 새로운 메트릭"을 읽을 것이다. Txh
ocram

감사! 나는 JSD 자체가 ** 2 DIST에 이미 유사 몰랐어요
AlcubierreDrive

좋은 설명 감사합니다! 간단한 질문입니다. J-Divergence가 대칭이라는 것을 알고 J(P,Q) = J(Q,P)있습니다. JS 발산이 P와 Q에서 대칭이라는 것을 읽었습니다. 이것이 의미 JS(P,Q) = JS(Q,P)합니까? KLdivflexmix패키지에서 함수를 사용하고 있기 때문에 이것을 묻습니다 R. 내 두 분포의 경우 KLdiv의 행렬 출력이 대칭이 아닙니다. JS 가이 문제를 해결할 것으로 기대했지만 JS의 출력 (KL을 사용하여 계산)은 대칭이 아닙니다.
Legend

1
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.