가우스 프로세스 : 함수 근사 속성


16

Gaussian Process에 대해 배우고 있으며 조금만 들었습니다. 의견과 답변에 감사드립니다.

모든 데이터 세트에 대해 가우스 프로세스 함수 근사가 데이터 포인트에서 0 또는 무시할 수있는 피팅 오류를 발생시키는 것이 사실입니까? 다른 곳에서는 가우시안 프로세스가 노이즈 데이터에 특히 좋다고 들었습니다. 이것은 관찰 된 데이터의 낮은 피팅 오류와 충돌하는 것 같습니다.

또한 데이터 포인트에서 멀어 질수록 불확실성이 더 커집니다 (더 큰 공분산). 그렇다면 로컬 모델 (RBF 등)처럼 작동합니까?

마지막으로 보편적 근사 속성이 있습니까?

답변:


17

D=(X,y)={xi,yi=y(xi)}i=1Nk(x1,x2)x

m(x)=kK1y
및 분산을
V(x)=k(x,x)kK1kT.
Vector k={k(x,x1),,k(x,xN)} is a vector of covariances, matrix K={k(xi,xj)}i,j=1N is a matrix of sample covariances. In case we make prediction using mean value of posterior distribution for sample interpolation property holds. Really,
m(X)=KK1y=y.
But, it isn't the case if we use regularization i.e. incorporate white noise term. in this case covariance matrix for sample has form K+σI, but for covariances with real function values we have covariance matrix K, and posterior mean is
m(X)=K(K+σI)1yy.
In addition, regularization makes problem more computationally stable.

Choosing noise variance σ we can select if we want interpolation (σ=0) or we want to handle noisy observations (σ is big).

Also, the Gaussian processes regression is local method because variance of predictions grows with distance to learning sample, but we can select appropriate covariance function k and handle more complex problems, than with RBF. Another nice property is small number of parameters. Usually it equals O(n), where n is data dimension.

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.