최적화 문제를 기록 할 때 알 수 있듯이 최소화의 유일한 차이점은 힐버트 표준이 처벌에 사용한다는 것입니다. 즉, 벌칙 목적으로 의 '큰'값이 무엇인지를 정량화하는 것 입니다. RKHS 설정에서는 RKHS 내부 제품인 를 사용하지만 능선 회귀는 유클리드 규범에 대해 처벌합니다.ααtKα
흥미로운 이론적 결과는 각 방법이 어떻게 재생 커널 의 스펙트럼에 영향을 미치는가 입니다. RKHS 이론에 따르면, 우리는 가 양의 양의 한정된 양 이라는 것을 알고 있습니다. 스펙트럼 정리에 의해 쓸 수 있습니다. 여기서 는 고유 값의 대각 행렬이고 는 고유 벡터의 직교 정규 행렬입니다. 따라서 RKHS 설정에서
한편, 릿지 회귀 설정에서 대칭으로 ,
KKK=UtDUDU
(K+λnI)−1Y=[Ut(D+λnI)U]−1Y=Ut[D+λnI]−1UY.
KtK=K2(K2+λnI)−1KY=[Ut(D2+λnI)U]−1KY=Ut[D2+λnI]−1UKY=Ut[D2+λnI]−1DUY=Ut[D+λnD−1]−1UY.
의 스펙트럼하자 될 . RKHS 회귀 분석에서 고유 값은 의해 안정화됩니다
. 릿지 회귀에는
있습니다. 결과적으로 RKHS는 고유 값을 균일하게 수정하는 반면 대응하는 가 작을 경우 Ridge는 더 큰 값을 추가합니다 .
Kν1,…,νnνi→νi+λnνi→νi+λn/νiνi
커널의 선택에 따라 대한 두 가지 추정치 가 서로 가깝거나 멀어 질 수 있습니다. 연산자 표준 의미의 거리는
그러나 이것은 주어진 대해 여전히 제한됩니다.α
∥αRKHS−αRidge∥ℓ2=∥ARKHSY−ARidgeY∥ℓ2≤∥[D+λnI]−1−[D+λnD−1]−1∥∞∥Y∥ℓ2≤maxi=1,…,n{|(νi+λn)−1−(νi+λn/νi)−1|}∥Y∥ℓ2≤maxi=1,…,n{λn|1−νi|(νi+λn)(ν2i+λn)}∥Y∥ℓ2
Y두 추정값을 임의로 멀리 떨어 뜨릴 수 없습니다. 따라서 커널이 동일성에 가깝다면 접근 방식에는 거의 차이가 없을 것입니다. 커널이 크게 다른 경우에도 두 가지 방법으로 비슷한 결과를 얻을 수 있습니다.
실제로, 주어진 상황에서 하나가 다른 것보다 낫다면 결정적으로 말하기는 어렵습니다. 커널 함수 측면에서 데이터를 표현할 때 제곱 오차와 관련하여 최소화함에 따라, 해당 힐버트 함수 공간에서 최상의 회귀 곡선을 효과적으로 선택하고 있습니다. 따라서 RKHS 내부 제품에 대한 처벌은 자연스럽게 진행되는 방법으로 보입니다.