KL Divergence는 대칭이 아니며 메트릭으로 엄격하게 간주 될 수 없습니다. 그렇다면 JS Divergence가 메트릭에 필요한 특성을 충족 할 때 왜 사용됩니까?
KL 분기를 사용할 수 있지만 JS 분기 또는 그 반대의 시나리오가 있습니까?
KL Divergence는 대칭이 아니며 메트릭으로 엄격하게 간주 될 수 없습니다. 그렇다면 JS Divergence가 메트릭에 필요한 특성을 충족 할 때 왜 사용됩니까?
KL 분기를 사용할 수 있지만 JS 분기 또는 그 반대의 시나리오가 있습니까?
답변:
Quora 에서 매우 성숙한 답변을 찾았 으며 여기에서 찾는 사람들을 위해 여기에 넣으십시오.
Kullback-Leibler 발산은 nice 가 널이 아닌 질량을 이 널 질량을 갖는 종류의 혐오 영역 의 몇 가지 좋은 특성을 가지고 있습니다 . 이것은 버그처럼 보일 수 있지만 실제로는 특정 상황에서 기능입니다.
(추적 가능한) 근사 분포 의해 복잡한 (다루기 어려운) 분포 에 대한 근사를 찾으려면 는 또한 에서 것이 매우 불가능합니다 . KL에이 속성이 있음을 쉽게 알 수 있습니다. 가 있습니다. 𝑞 (𝑥)는 작지만 는 그렇지 않으면 괜찮습니다. 그러나 작, 이것은 매우 빠르게 경우 성장 도 작지 않다. 따라서 을 최소화하기 위해 를 선택하면그것은 매우 희한입니다 지역에 질량을 많이 할당합니다 근처 제로이다.
Jensen-Shannon 분기에는이 속성이 없습니다. 와 가 작을 때 잘 동작합니다 . 그만큼 배포 처벌하지 않습니다이 수단 당신이 불가능한 값을 샘플링 할 수있는 .