실제로 SVM이 관측치보다 많은 경우에도 SVM이 과적 합에 저항하는 경향이있는 이유는 정규화를 사용하기 때문입니다. 과적 합을 피하기위한 핵심은 정규화 매개 변수 의 신중한 튜닝 과 비선형 SVM의 경우 신중한 커널 선택 및 커널 매개 변수 튜닝에 있습니다.씨
SVM은 일반화 오류에 대한 경계의 대략적인 구현으로, 여백 (실제로 결정 경계에서 각 클래스의 가장 가까운 패턴까지의 거리)에 따라 다르지만 피쳐 공간의 차원과 무관합니다 (이유 커널 트릭을 사용하여 데이터를 매우 높은 차원의 공간에 매핑하는 것은 좋지 않은 생각이 아닙니다). 따라서 원칙적으로 SVM은 과적 합에 대한 저항력이 높아야하지만 실제로 는 와 커널 매개 변수를 신중하게 선택 해야합니다. 안타깝게도 저의 주요 연구 분야 인 하이퍼 파라미터를 튜닝 할 때 과적 합도 매우 쉽게 발생할 수 있습니다.씨
GC Cawley 및 NLC Talbot, 하이퍼 파라미터의 베이지안 정규화를 통해 모델 선택에서 과적 합 방지, Journal of Machine Learning Research, 8 권, 841-861 페이지, 2007 년 4 월. ( www )
과
GC Cawley 및 NLC Talbot, 성능 평가에서 모델 선택 및 후속 선택 바이어스에 과적 합, Journal of Machine Learning Research, 2010. Research, vol. 11, pp. 2079-2107, 2010 년 7 월. ( www )
이 두 논문 모두 SVM 대신 커널 릿지 회귀를 사용하지만 SVM과 마찬가지로 동일한 문제가 쉽게 발생합니다 (KRR에도 비슷한 범위가 적용되므로 실제로는 그 중에서 선택할 것이 많지 않습니다). 따라서 어떤 방식으로 SVM은 과적 합 문제를 실제로 해결하지 못하고 문제를 모델 피팅에서 모델 선택으로 전환합니다.
먼저 일종의 기능 선택을 수행하여 SVM의 삶을 조금 더 쉽게 만들고 싶은 유혹이 있습니다. SVM과 달리 특성 선택 알고리즘은 특성 수가 증가함에 따라 더 많은 적합치를 나타내는 경향이 있습니다. 유익한 속성이 무엇인지 알고 싶지 않은 경우 일반적으로 기능 선택 단계를 건너 뛰고 정규화를 사용하여 데이터가 과도하게 적합하지 않도록하는 것이 좋습니다.
즉, 정규화 매개 변수가 올바르게 조정 되면 120 개의 관측치 및 수천 개의 속성이있는 문제에 대해 SVM (또는 능선 회귀, LARS, 올가미, 탄성 그물 등의 기타 정규화 된 모델)을 사용하는 데 고유 한 문제가 없습니다 .