SVM에 대한 학습 프로세스의 특수한 속성으로 인해 SVM에 커널 트릭이 가능합니다. 신경망에는 그 속성이없는 것 같습니다 (내가 알 수있는 한).
허락하다 엑스1, ... ,엑스엔∈아르 자형디훈련 세트의 포인트가됩니다. 일반적으로 머신 러닝 알고리즘은엑스나는'에스. 그러나 SVM 학습 프로세스에는 다소 놀라운 특성이 있습니다. 값을 알 필요가 없습니다.엑스나는'에스. 계산하기에 충분하다엑스나는⋅엑스제이임의의 원하는 입력 포인트 쌍에 대해 (즉, 선택한 임의의 입력 벡터 쌍에 대한 내적 계산); 이것이 모든 SVM 학습 프로세스 요구 사항입니다.
SVM 학습 프로세스의이 특별한 속성을 통해 커널 트릭을 사용할 수 있습니다. 커널 함수를 정의 할 수 있습니다케이 그래서 케이(엑스나는,엑스제이)입력의 일부 비선형 변환의 내적입니다. 비선형 변환을 통해 입력 벡터를 변환하는 경우ϕ :아르 자형디→아르 자형미디엄 (일부 m > d), 우리는 정의 케이(엑스나는,엑스제이) = ϕ (엑스나는) ⋅ ϕ (엑스제이). 다음으로 멋진 속성은 비선형 변환의 경우ϕ, 당신은 계산할 수 있습니다 케이(엑스나는,엑스제이) 컴퓨팅보다 더 효율적 ϕ (엑스나는) , ϕ (엑스제이)명시 적으로 그리고 나서 내적을 계산하는 것; 당신은 계산할 수 있습니다케이(엑스나는,엑스제이) 에 O ( 일) 시간보다 (말) 오 ( m ) 시각.
불행히도, 신경망은이 멋진 트릭을 활용할 방법이없는 것 같습니다. 신경망의 학습 과정은 단순한 가치 이상의 것에 의존하는 것처럼 보입니다. 엑스나는⋅엑스제이 (또는 케이(엑스나는,엑스제이)); 그것은 모든의 전체 가치를 요구한다엑스나는'에스. 따라서 원하는 경우 비선형 함수를 통해 비선형 네트워크로 입력을 사전 변환 할 수는 있지만 SVM 에서처럼 커널 트릭을 사용하여보다 효율적으로 수행 할 수있는 방법은없는 것 같습니다.