SVM :
퍼셉트론
min∥w∥2+C∑i=1n(1−yi(wxi+w0))+
min∑i=1n(−yi(wxi+w0))+
우리는 SVM이 L2 정규화 퍼셉트론과 거의 같은 목표를 가지고 있음을 알 수 있습니다.
목적이 다르기 때문에이 두 알고리즘에 대해 다른 최적화 체계가 있습니다. 와는 SVM을 최적화하기 위해 2 차 프로그래밍을 사용하는 것이 중요한 이유입니다.∥w∥2
perceptron이 온라인 업데이트를 허용하는 이유는 무엇입니까? 경첩 손실에 대한 경사 하강 업데이트 규칙이 표시되면 (힌지 손실은 SVM과 퍼셉트론 모두에서 사용됨)
wt=wt−1+η1N∑i=1NyixiI(yiwtxi≤0)
모든 머신 러닝 알고리즘은 손실 함수와 최적화 알고리즘의 조합으로 볼 수 있습니다.
퍼셉트론은 힌지 손실 (손실 기능) + 확률 적 경사 하강 (최적화) 이상입니다.
wt=wt−1+yy+1xt+1I(yt+1wtxt+1≤0)
그리고 SVM은 힌지 손실 + l2 정규화 (손실 + 정규화) + 2 차 프로그래밍 또는 SMO (최적화)와 같은 다른 환상적인 최적화 알고리즘으로 볼 수 있습니다.