a와 b가 실수 인 [a, b]의 연속 함수가 가우시안 프로세스 (회귀)에 의해 함수 (일부 표준)에 근접하거나 임의로 근접 할 수 있습니까?
a와 b가 실수 인 [a, b]의 연속 함수가 가우시안 프로세스 (회귀)에 의해 함수 (일부 표준)에 근접하거나 임의로 근접 할 수 있습니까?
답변:
@Dougal이 지적한 것처럼 질문을 해석하는 두 가지 방법이 있습니다. 비록 그렇게 보이지 않더라도 밀접하게 관련되어 있습니다.
제 해석은 다음하게 컴팩트 서브셋 (소형화가 다음의 모든 근본적인!)하게 가 수 연속 공분산 함수 (또는 커널)에 정의 로하고, 참조 부호 의 연속 함수의 공간 NORMED 최대 규범 장착 . 어떠한 기능의 경우 , 수 미리 지정된 허용 오차에 근사 연결된 RKHS (재생 커널 힐베르트 공간)의 함수? RKHS가 무엇인지,이 모든 것이 가우시안 프로세스 회귀와 관련이 있는지 궁금 할 것입니다. RKHS 는 가능한 모든 함수의 가능한 유한 선형 조합으로 형성된 벡터 공간을 닫는 것입니다. 여기서 입니다. 공간 에서 이전에 가우시안 프로세스가 주어지면 폐쇄 가우시안 프로세스 회귀와 매우 밀접하게 관련됩니다. 가우스 프로세스 회귀에 의해 생성 될 수있는 모든 가능한 후방 수단의 공간은 정확히 RKHS입니다. 사실, 가능한 모든 후방 수단은
즉, 함수 유한 선형 조합입니다 . 따라서, 우리는 효과적으로 주어진 경우 가우시안 프로세스 이전 요청하고 에서 임의의 기능에 대해, 거기 는 GPR에 의해 생성 될 수있는 모든 함수의 (폐쇄) 공간에서 항상 함수이며, 원하는만큼 가깝습니다 .
일부 특정 커널 (일반 제곱 지수 커널은 포함하지만 다항식 커널은 포함하지 않음)에 대한 대답 은 yes 입니다. 이러한 커널에 대해 입증 할 수 인 고밀도 의 즉, 임의의에 대해, 및 관용 ,가 에서 등 그 . 가정 참고 : 소형이며, 지속적이고 소위 범용 근사 특성을 갖는 연속 커널이다. 여기를 참조 하십시오 보다 일반적인 (따라서 복잡한) 맥락에서 완전한 증거를 얻으려면.
이 결과는 첫눈에 보이는 것보다 훨씬 덜 강력합니다. 하더라도 GPR에 의해 생성 될 수있는 후방 수단 공간 (의 폐쇄)에서, 우리는 것을 증명하지되어 있다 특정 후방 트레이닝은 어디 충분히 큰 세트에 대해, GPR에 의해 반환 의미 물론 훈련 세트는 포인트 에서 에 대한 노이즈 관측으로 구성됩니다 . 우리는 심지어 GPR에 의해 반환 된 사후 평균이 대해 전혀 수렴한다는 것을 증명하지 못했습니다 ! 이것은 실제로 @Dougal이 제안한 두 번째 해석입니다. 이 질문에 대한 답변은 첫 번째 질문에 대한 답변에 따라 다릅니다. 함수가없는 경우 대한 "좋은 근사치"인 RKHS 에서는 물론, 우리는 GPR에 의해 반환 된 사후 평균 이 그것에 합류하기를 희망 할 수 없다. 그러나 다른 질문입니다. 이 질문에 대한 답변을 원하시면 새로운 질문을하십시오.