가우스 프로세스가 과적 합인지 어떻게 알 수 있습니까?


12

교차 유효성 검사 대신 데이터의 한계 한계를 최대화하여 많은 매개 변수가있는 ARD 커널로 가우시안 프로세스를 훈련하고 있습니다.

나는 그것이 너무 적합하다고 생각합니다. 베이지안 상황에서이 의심을 어떻게 테스트 할 수 있습니까?

답변:


12

가장 간단한 방법은 비 ARD 등가 공분산 함수 (보통 RBF)로 가우스 프로세스를 맞추고 테스트 오류율을 비교하는 것입니다. 많은 문제에서 ARD 공분산 함수 는 하이퍼-파라미터를 튜닝 할 때 과적 합으로 인해 비 ARD 공분산 함수보다 성능이 떨어 집니다. RBF 공분산은 ARD 공분산의 특별한 경우이므로 RBF가 더 잘 수행되면 ARD 커널이 과적 합하다는 것을 나타내는 강력한 표시입니다 (해당 RBF 공분산에 대한 최적의 값에서 ARD 계수 최적화 시작). ARD 공분산의 문제가 한계 우도의 국소 최소값 때문이 아니라는 것을 확인하는 데 도움이됩니다. 이것은 일반적으로 인식되는 것보다 훨씬 큰 문제입니다.

나는 이것에 관한 몇 가지 논문을 썼다.

GC Cawley 및 NLC Talbot, 하이퍼 파라미터의 베이지안 정규화를 통한 모델 선택 중 과적 합 방지, Journal of Machine Learning Research, 8 권, 841-861 페이지, 2007 년 4 월 ( pdf )

GC Cawley 및 NLC Talbot, 성능 평가에서 모델 선택 및 후속 선택 바이어스에 과적 합, Journal of Machine Learning Research, 2010. Research, vol. 11, pp. 2079-2107, 2010 년 7 월 ( pdf )

첫 번째는 GP에 대한 실험을 포함하는데, 이는 모델 선택에서의 과적 합이 한계 우도 최대화 기반 모델 선택을 가진 GP에게도 문제가됨을 보여줍니다.

보다 철저한 분석은 한계 우도를 최적화하는 과정에서 각 단계에서 GP의 테스트 오류를 ​​평가하는 것입니다. 모델 선택 기준이 단조 감소하지만 테스트 오류가 처음에는 감소하지만 모델 선택 기준이 과도하게 최적화됨에 따라 다시 상승하기 시작하는 과적 합의 고전적인 특징을 얻게 될 가능성이 높습니다. 2010 JMLR 논문의 그림 2a).


감사합니다-지금 첫 번째 글을 읽고 있습니다. 한계 우도의 모형 복잡성 항이 과적 합을 방지하기에 충분하지 않은 경우 ARD와 같은 많은 매개 변수를 가진 커널로 과적 합을 다시 정규화하는보다 효과적인 방법을 경험 했습니까?
nickponline

2
가장 강력한 방법은 Markov Chain Monte Carlo 방법을 사용하여 하이퍼 매개 변수를 제한하는 것입니다. GP가 사용하는 경향이있는 데이터 세트의 크기 (최대 수천 패턴)에 대해서는 한계 가능성을 과도하게 맞추는 것이 불가피하다고 생각합니다. IMHO 최적화는 과적 합의 위험이있는 것을 최적화 할 때마다 통계에있어 모든 악의 근원입니다. 베이지안 접근 방식은 훨씬 더 그런 의미에서,하지만 전과가 :-( 잘못 때문에 대신 문제의 위험을 실행
Dikran 유대류

@DikranMarsupial Variational GP 방법을 사용하여 과적 합을 피하는 방법에 대한 최신 연구가 있습니까?
imsrgadich
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.