Kullback-Leibler 분기 는 두 개의 확률 밀도 함수를 비교하는 메트릭이지만 두 GP의 와 를 비교하는 데 사용되는 메트릭은 무엇 입니까?
Kullback-Leibler 분기 는 두 개의 확률 밀도 함수를 비교하는 메트릭이지만 두 GP의 와 를 비교하는 데 사용되는 메트릭은 무엇 입니까?
답변:
가우시안 프로세스 의 분포는 아마도 무한 대한 다변량 가우시안의 확장이라는 점에 주목하십시오 . 따라서 에 통합하여 GP 확률 분포간에 KL 분기를 사용할 수 있습니다 .
MC 방법을 사용 하여 GP 분포에 따라 프로세스를 반복적으로 샘플링 하여 불연속 에 대해이 수치를 대략적으로 계산할 수 있습니다 . 수렴 속도가 충분히 좋은지 모르겠습니다 ...
비고 경우 그 와 유한 이면 다변량 정규 분포에 대한 일반적인 KL 분기로 돌아갑니다.
기억 그 경우 평균 함수 가우스 과정 m 및 공분산 함수 K , 그리고, 모든 대 t 1 , ... , t K ∈ T , 랜덤 벡터 ( X ( t 1 ) , ... , X ( t k ) ) 평균 벡터 ( m ( t 1 ) , … , m 을 갖는 다변량 정규 분포를 가짐 와 공분산 매트릭스 Σ = ( σ I , J ) = ( K ( t I , t의 J ) ) 우리 공통 약어를 사용하고, X ( t를 ) = X ( t , .
각 실현 는 도메인이 인덱스 세트 T 인 실제 함수입니다. T = [ 0 , 1 ] 이라고 가정하자. 두 개의 가우스 프로세스 X 와 Y가 주어지면 두실현 X 사이의 공통 거리 X ( 및 Y ( 이다 SUP t ∈ [ 0 , 1 ] | X ( t , ω ) - Y ( t , ω ) | . 따라서 두 프로세스 X 와 Y 사이의 거리를 d ( X , Y ) = E 로 정의하는 것이 자연스러워 보입니다. 이 거리에 대한 분석 표현이 있다면 모르겠지만, 나는 다음과 같이 몬테 카를로의 근사값을 계산할 수 있다고 생각합니다. 교묘 그리드 수정 0 ≤ t 1 < ⋯ < t K ≤ 1 , 샘플 그릴 ( X I 1 , ... , X 나 K ) 및 ( Y i가 1 , ... , Y 나 케이 ) 정상 랜덤 벡터로부터 ( X ( t 1 )