가우시안 프로세스 회귀는 (GPR)이 무한한 양의 기본 함수를 가진 베이지안 선형 회귀에 해당한다고 종종 말합니다. 나는 현재 GPR을 사용하여 표현할 수있는 모델의 종류에 대한 직감을 얻기 위해 이것을 자세히 이해하려고 노력하고 있습니다.
- 이것이 GPR을 이해하기위한 좋은 접근법이라고 생각하십니까?
책의 기계 학습 가우시안 프로세스 스무 윌리엄스 쇼 가우시안 프로세스들의 세트는 상기 파라미터 된 지수 제곱 커널 기재된 등가 종래 믿음 베이지안 회귀 같이 표현w~N(0,σ 2 P I)가중치에 폼의 베이시스 함수의 무한한 양φC(X,L)=EXP(-(x−c)2
- 차별화 가능한 커널의 매개 변수화가 항상 이전 및 기본 기능의 매개 변수화로 변환 될 수 있습니까? 예를 들어 기본 기능의 수가 구성에 따라 달라지는 차별화 가능한 커널이 있습니까?
다음 질문은 머서 정리의 역수에 관한 것입니다.
- 어떤 기본 함수 집합이 유효한 커널로 연결됩니까?
그리고 확장
- 어떤 파라미터 화 된 기본 함수 세트가 유효한 차별화 가능한 커널로 연결됩니까?