최소 각도 회귀는 상관 관계를 단조롭게 감소시키고 묶는 것을 유지합니까?


9

최소 각도 회귀 (LAR)에 대한 문제를 해결하려고합니다. 이 문제가 3.23 페이지 (97)Hastie 등., 통계 학습의 요소, 2. 에드. (5 번째 인쇄) .

모든 변수와 반응의 평균이 0이고 표준 편차가 1 인 회귀 문제를 고려하십시오. 각 변수가 반응과 동일한 절대 상관 관계를 가지고 있다고 가정하십시오.

1N|xj,y|=λ,j=1,...,p

하자 의 최소 제곱 계수를 에 및하자 를 들어 입니다.β^yXu(α)=αXβ^α[0,1]

나는 그 표시하도록 요청하고 그리고 나는 그것에 문제가 있습니다. 이것은 기본적 으로 우리가 향하여 진행함에 따라 잔차와 각 의 상관 관계는 크기가 같다는 것을 알 수 있습니다.

1N|xj,yu(α)|=(1α)λ,j=1,...,p
xju

또한 상관 관계가 다음과 같은지 표시하는 방법을 모르겠습니다.

λ(α)=(1α)(1α)2+α(2α)NRSSλ

어떤 포인터라도 대단히 감사하겠습니다!


2
@Belmont, 란 무엇입니까? 문제에 대해 더 많은 정보를 제공 할 수 있습니까? 예를 들어 표준 속성이 LAR 인 기사에 링크하면 많은 도움이됩니다. u(α)
mpiktas

@Belmont, Hastie, et al., Elements of Statistical Learning , 2nd 의 문제처럼 보입니다 . 에드. 숙제입니까? 그렇다면 해당 태그를 추가 할 수 있습니다.
추기경

@Belmont, 이제 @cardinal이 완전한 답을 제공 했으므로 나중에 참조 할 수 있도록 LAR이 실제로 무엇인지 지정할 수 있습니까? 답을 보면, 이것은 초기 제약 조건이 주어지면 최소 제곱 회귀의 곱에 대한 표준 조작입니다. 특별한 이유없이 특별한 이름이 없어야합니다.
mpiktas

1
@mpiktas는 단계적 알고리즘이므로 변수가 정규화 경로에서 모델에 들어가거나 나올 때마다 의 크기 (예 : 카디널리티 / 차원)가 각각 커지거나 줄어들며 "새로운"LS 추정값이 사용됩니다. 현재 "활성"변수 볼록 최적화 문제인 올가미의 경우, 절차는 본질적으로 KKT 조건에서 특별한 구조를 이용하여 매우 효율적인 솔루션 을 얻는 것입니다. IRLS와 Heine-Borel을 기반으로 한 로지스틱 회귀 분석 (유한 한 단계의 수렴을 증명하기 위해)에 대한 일반화도 있습니다.β
추기경

1
@Belmont -1, 최근에 Hastie의 책을 샀을 때 이것이 연습 문제임을 확인할 수 있습니다. 그래서 나는 당신에게 큰 -1을주었습니다. 모든 정의를 다룰 수는 없기 때문에, 나는 참조를 말하는 것에 대해서도 이야기하지 않습니다.
mpiktas

답변:


21

이 문제가 3.23 페이지 (97)Hastie 등., 통계 학습의 요소 , 2. 에드. (5 번째 인쇄) .

이 문제의 핵심은 보통 최소 제곱 (즉, 선형 회귀), 특히 적합치와 잔차의 직교성을 잘 이해하는 것입니다.

직교성 정리 : LetX ~이다 n×p 디자인 매트릭스, y 반응 벡터와 β(true) 매개 변수 가정X OLS 추정치는 β 아르 β^=(XTX)1XTy. 적합치는y^=X(XTX)1XTy. 그때y^,yy^=y^T(yy^)=0. 즉, 적합치 가 잔차에 직교 합니다. 이후부터XT(yy^)=XTyXTX(XTX)1XTy=XTyXTy=0.

자 이제 xj 열 벡터가되도록 xj 입니다 jX. 가정 된 조건은 다음과 같습니다.

  • 1Nxj,xj=1 각각 j, 1Ny,y=1,
  • 1Nxj,1p=1Ny,1p=0 어디 1p 길이가 1 인 벡터를 나타냄 p,
  • 1N|xj,y|=λ 모든 j.

하는 것으로 특히 ,의 마지막 문 직교성의 보조 정리 와 동일xj,yy^=0 모든 j.


상관 관계가 묶여있다

지금, u(α)=αXβ^=αy^. 그래서,

xj,yu(a)=xj,(1α)y+αyαy^=(1α)xj,y+αxj,yy^,
그리고 오른쪽의 두 번째 항은 직교성 렘마에 의해 0 이므로
1N|xj,yu(α)|=(1α)λ,
바라는대로. 상관의 절대 값은
ρ^제이(α)=1|엑스제이,와이(α)|1엑스제이,엑스제이1와이(α),와이(α)=(1α)λ1와이(α),와이(α)

노트 : 위의 오른쪽은 독립적입니다제이 분자는 공분산과 동일합니다. 엑스제이'모래 와이 중심에 있습니다 (특히, 평균의 빼기가 필요하지 않습니다).

점은 무엇인가?같이α응답 벡터가 ( 제한된! 첫 번째 만 통합하여 얻은 ) 최소 제곱 솔루션모델의 매개 변수. 이는 (변형 된) 반응 벡터를 갖는 예측 변수의 단순한 내부 곱이므로 추정 된 모수를 동시에 수정합니다. 그러나 수정은 특별한 형태를 취합니다. 프로세스 전체에서 ( 상관 상관 이 변경 되더라도) 예측 변수와 수정 된 응답 간의 상관 관계 (크기)를 동일하게 유지합니다 . 이것이 기하학적으로 무엇을하고 있는지 생각하면 절차의 이름을 이해할 수 있습니다!


(절대) 상관 관계의 명시 적 형식

분자가 이미 필요한 형식이므로 분모의 항에 초점을 맞추겠습니다. 우리는

와이(α),와이(α)=(1α)와이+α와이(α),(1α)와이+α와이(α).

대체 (α)=α와이^ 내부 제품의 선형성을 사용하면

와이(α),와이(α)=(1α)2와이,와이+2α(1α)와이,와이와이^+α2와이와이^,와이와이^.

그것을 관찰하십시오

  • 와이,와이= 가정에 의해
  • 와이,와이와이^=와이와이^,와이와이^+와이^,와이와이^=와이와이^,와이와이^, 직교 렘마 (다시)를 중간의 두 번째 항에 적용함으로써 ; 과,
  • 와이와이^,와이와이^=아르 자형에스에스 정의에 의해.

이 모든 것을 합치면 우리가 얻는 것을 알 수 있습니다.

ρ^제이(α)=(1α)λ(1α)2+α(2α)아르 자형에스에스=(1α)λ(1α)2(1아르 자형에스에스)+1아르 자형에스에스

일을 마무리하기 위해 1아르 자형에스에스=1(와이,와이,와이와이^,와이와이^)0 그리고 그것은 분명하다 ρ^제이(α) 단조로 감소 αρ^제이(α)0 같이 α1.


에필로그 : 여기서 아이디어에 집중하십시오. 실제로는 하나뿐입니다. 직교성의 보조 정리는 우리를 위해 거의 모든 작업을 수행합니다. 나머지는 대수, 표기법 및 마지막 두 가지를 작동시키는 능력입니다.


2
@cardinal, +1 답은 질문보다 훨씬 낫습니다.
mpiktas

@cardinal, 당신은 아마존이나 다른 사이트로 링크를 변경하고 싶을 수도 있습니다. 책 전체를 연결하면 저작권 문제가 발생할 수 있다고 생각합니다.
mpiktas

3
@mpiktas, 아뇨. 저작권 문제가 없습니다. 그 책의 공식 웹 사이트입니다. 저자는 Springer로부터 PDF를 온라인에서 자유롭게 이용할 수 있도록 허가를 받았습니다. (사이트에서이 효과에 대한 메모를 참조하십시오.) Stephen Boyd와 그의 Convex Optimization 텍스트 에서 아이디어를 얻은 것 같습니다 . 앞으로 이러한 추세가 향후 몇 년 동안 계속 될 것입니다. 즐겨!
추기경

@ 추기경, 엄청난 감사합니다! 그것은 저자들의 관대함입니다.
mpiktas

@mpiktas, 그것은 Springer Series in Statistics에서 가장 인기있는 책입니다. iPad에서 좋아 보인다. Boyd의 텍스트도 다운로드해야합니다. 건배.
추기경
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.