답변:
KL- 차이는 일반적으로 정보 이론적 설정 또는 심지어 베이지안 설정에서 사용되어 추론을 적용하기 전후의 분포 사이의 정보 변화를 측정합니다. 대칭성과 삼각형 부등식이 없기 때문에 일반적인 (메트릭) 의미에서 거리가 아니므로 방향성이 의미가있는 곳에서 사용됩니다.
KS- 거리는 일반적으로 비모수 적 테스트의 맥락에서 사용됩니다. 사실, 나는 그것이 일반적인 "분포 사이의 거리"로 사용되는 것을 거의 보지 못했다. 여기서 거리, Jensen-Shannon 거리 및 다른 거리가 더 일반적이다.
더 평신도 용어로 이전 답변과 동일한 내용을 나타내는 또 다른 방법 :
KL Divergence-실제로 두 분포가 얼마나 큰지 측정합니다. 이전 답변에서 언급했듯이이 측정 값은 대칭이 아니므로 적절한 거리 측정 항목이 아닙니다. 즉, 분포 A와 B 사이의 거리는 분포 B와 A 사이의 거리와 다릅니다.
Kolmogorov-Smirnov 테스트-참조 분포에 대한 테스트 분포의 누적 분포를 가장 크게 구분하는 평가 지표입니다. 또한 Kolmogorov 분포에 대한 z- 점수처럼이 메트릭을 사용하여 검정 분포가 기준과 동일한 분포인지 여부에 대한 가설 검정을 수행 할 수 있습니다. 이 메트릭은 대칭이므로 거리 함수로 사용할 수 있습니다. 즉, A의 CDF 대 B의 CDF 사이의 가장 큰 분리는 B의 CDF 대 A의 CDF 사이의 가장 큰 분리와 동일하다.