답변:
선형 데이터의 경우 물론 도움이되지 않지만 비선형 데이터의 경우 항상 유용합니다. 학습 시간 및 확장 성 측면에서 선형 분류기를 사용하는 것이 비선형보다 훨씬 쉽습니다.
@BartoszKP는 이미 커널 트릭이 유용한 이유를 설명했습니다. 그러나 귀하의 질문을 완전히 해결하기 위해 커널 화가 선형 적으로 분리 할 수없는 데이터를 처리 하는 유일한 옵션 은 아니라고 지적하고 싶습니다 .
모델의 비선형 화 를 위한 3 가지의 좋은 일반적인 대안 이 있습니다.
kernelization은 훌륭한 delinearization 기술이다, 당신은 - 요약하면 수 appraoch "다음 경우"문제가 선형이 아닌 경우, 그것을 사용하지만,이 장님해서는 안됩니다. 이것은 최소한 몇 가지 흥미로운 방법 중 하나이며 문제와 요구 사항에 따라 다양한 결과를 얻을 수 있습니다. 특히, ELM은 커널 화 된 SVM이 제공하는 솔루션과 매우 유사한 솔루션을 찾는 반면, 동시에 큰 행을 빠르게 훈련 할 수 있습니다 (따라서 커널 화 된 SVM보다 훨씬 더 확장 성이 뛰어납니다 ).
선형 방법에 대해 일반적으로 커널 트릭에 대해 지불하는 가격이 일반화 한계가 더 큽니다. 선형 모델의 경우 해당 VC 치수 는 치수 수 측면에서 선형입니다 (예 : Perceptron의 VC 치수는 d + 1
).
이제 고차원 공간으로 복잡한 비선형 변환을 수행 할 경우, 가설 세트의 VC 차원은 새로운 고차원 공간의 차원 수와 관련하여 선형이므로 크게 커집니다. 그리고 그것으로 일반화 한계가 올라갑니다.
서포트 벡터 머신 은 다음 두 가지를 수행하여 가장 효율적인 방법으로 커널 트릭을 악용합니다.
하드 마진 SVM 모델에 대한 일반화 범위는 지원 벡터 수와 관련이 있으며 소프트 마진은 가중치 벡터의 표준과 관련이 있으므로 첫 번째 경우에는 관련이 없으며 두 번째 경우에는 거의 관련이 없습니다. . 커널 대상 공간이 아무리 "큰"이더라도 일반화 (참조 : (i) C. Cortes 및 V. Vapnik. 벡터 네트워크 지원 ) 측면에서 아무 것도 잃지 않습니다 . Machine Learning, 20 : 273– 297, 1995 ; (ii) Shawe-Taylor, J .; Cristianini, N., "소프트 마진 알고리즘의 일반화", 정보 이론, IEEE Transactions on, vol.48, no.10, pp.2721,2735, 2002 년 10 월 ).
SVM은 마진을 최대화하는 분리 평면을 찾아 가설 세트를 더욱 단순화합니다 (가능한 모든 분리 평면을 고려하지 않고 마진을 최대화하는 평면 만 고려). 간단한 가설 세트는 더 나은 일반화 범위로 이어집니다 (이것은 첫 번째 포인트와 관련이 있지만 더 직관적입니다).
귀하의 질문에 비 기술적 답변을 제공하려고 노력할 것입니다.
실제로 선형은 선호되어야하며 언급 한 이유, 훈련 시간, 확장 성, 최종 모델 해석 용이성, 기본 또는 이중 작업 선택, 과적 합에 대한 내결함성 등의 이유로 첫 번째 선택이어야합니다.
선형 모델이 만족스러운 성능을 얻지 못하면 비선형 솔루션을 시도 할 수 있습니다. 고려해야 할 몇 가지 단점은 다음과 같습니다.