«eigenvalues» 태그된 질문

고유 값 또는 고유 벡터의 계산 또는 해석과 관련된 질문에 사용됩니다.

28
주요 성분 분석, 고유 벡터 및 고유 값 이해
오늘의 패턴 인식 수업에서 교수님은 PCA, 고유 벡터 및 고유 값에 대해 이야기했습니다. 나는 그것의 수학을 이해했다. 고유 값 등을 찾도록 요청 받으면 기계처럼 올바르게 수행합니다. 그러나 나는 그것을 이해 하지 못했습니다 . 나는 그것의 목적을 얻지 못했습니다. 나는 그것을 느끼지 못했습니다. 나는 다음 인용문을 강력하게 믿는다. 할머니에게 설명 할 …


1
임의의 대칭 행렬을 생성하면 양의 명확한 확률은 얼마입니까?
볼록 최적화를 실험 할 때 이상한 질문이 있습니다. 질문은 ~이야: 무작위로 (표준 정규 분포와 같이) 대칭 행렬을 생성한다고 가정합니다 (예 : 상위 삼각 행렬을 생성하고 아래쪽 절반을 채워서 대칭인지 확인하십시오). 매트릭스? 어쨌든 확률을 계산할 수 있습니까?엔× N엔×엔N \times N

1
센터링은 PCA (SVD 및 고유 분해)에서 어떻게 차이를 만들어 줍니까?
PCA의 데이터 중심화 (또는 의미가없는)는 어떤 차이가 있습니까? 수학이 더 쉬워 지거나 첫 번째 PC가 변수의 수단에 의해 지배되는 것을 막는다 고 들었지만 아직 개념을 제대로 파악할 수 없었습니다. 예를 들어, 여기서 가장 좋은 대답 은 회귀 및 PCA에서 데이터를 중심에 어떻게 차단을 제거합니까? 중심이 포인트 클라우드의 주축이 아니라 원점을 …
30 r  pca  svd  eigenvalues  centering 

4
Andrew Ng가 PCA를 수행하기 위해 공분산 행렬의 EIG가 아닌 SVD를 선호하는 이유는 무엇입니까?
Andrew Ng의 Coursera 코스 및 기타 자료에서 PCA를 공부하고 있습니다. 스탠포드 NLP 과정에서 cs224n의 첫 번째 과제 와 Andrew Ng 의 강의 비디오에서 공분산 행렬의 고유 벡터 분해 대신 특이 값 분해를 수행하며 Ng는 SVD가 고유 분해보다 수치 적으로 더 안정적이라고 말합니다. PCA의 경우 (m,n)크기의 공분산 행렬이 아닌 크기 의 …

1
차원 수가 경우 데이터에 대해 주요 구성 요소 만있는 이유는 무엇 입니까?
PCA에서,시 치수의 개수 샘플 수 (또는 동일)보다 큰 , 이유는 기껏해야한다는 것이다 비제로 고유 벡터? 다시 말해, 차원 들 사이의 공분산 행렬의 순위 는 이다.N N - 1 d ≥ N N - 1디dd엔NN엔− 1N−1N-1디≥ Nd≥Nd\ge N엔− 1N−1N-1 예 : 샘플은 크기의 벡터화 된 이미지 이지만 이미지 만 있습니다 .N …

1
상호 정보 매트릭스의 고유 벡터의 의미는 무엇입니까?
공분산 행렬의 고유 벡터를 볼 때 최대 분산의 방향을 얻습니다 (첫 번째 고유 벡터는 데이터가 가장 많이 변하는 방향 등입니다). 이를 주성분 분석 (PCA)이라고합니다. 상호 정보 매트릭스의 고유 벡터 / 값을 보는 것이 무엇을 의미하는지 궁금합니다. 최대 엔트로피 방향을 가리킬까요?

1
'고유'가 행렬 반전에 어떻게 도움이되는지 설명
내 질문은 geoR:::.negloglik.GRF또는 에서 악용 된 계산 기술과 관련이 geoR:::solve.geoR있습니다. 선형 혼합 모델 설정에서 : 여기서 와 는 각각 고정 및 랜덤 효과입니다. 또한β b Σ = cov ( Y )와이= Xβ+ Zb + eY=Xβ+Zb+e Y=X\beta+Zb+e ββ\beta비bbΣ = 코브 ( Y)Σ=cov(Y)\Sigma=\text{cov}(Y) 효과를 추정 할 때, 계산에 필요가있다 일반적으로 같은 것을 …

1
희소 데이터를 기반으로하는 공분산 행렬의 고유 및 svd 분해가 다른 결과를 생성하는 이유는 무엇입니까?
희소 / 갭피 데이터 세트를 기반으로 공분산 행렬을 분해하려고합니다. 로 계산 된 람다 (설명 된 분산)의 합이 svd점점 더 좁아지는 데이터로 증폭되고 있음을 알았습니다. 틈없이, svd그리고 eigen높을 동일한 결과. 이것은 eigen분해 로 발생하지 않는 것 같습니다 . svd람다 값이 항상 양수이기 때문에 사용에 기울고 있었지만이 경향은 걱정입니다. 적용해야 할 일종의 …
12 r  svd  eigenvalues 

3
모든 상관 행렬이 양의 명확한가?
여기서 피어슨 상관의 행렬에 대해 이야기하고 있습니다. 나는 종종 모든 상관 행렬이 양의 반올림해야한다고 들었습니다. 내 이해는 양의 정한 행렬의 고유 값이 이어야하고 양의 반정의 행렬의 고유 값 이 있어야한다는 것 입니다. 이것은 내 질문을 "상관 행렬이 고유 값 을 가질 수 있습니까?" 로 표현 될 수 있다고 생각합니다.≥ 0 …

2
PCA가 예상의 총 분산을 최대화하는 이유는 무엇입니까?
Christopher Bishop은 자신의 저서 인 Pattern Recognition and Machine Learning 을 통해 데이터가 이전에 선택한 구성 요소에 직교 공간으로 투영 된 후 각 연속 주성분이 투영의 분산을 1 차원으로 최대화한다는 증거를 작성합니다. 다른 사람들도 비슷한 증거를 보여줍니다. 그러나 이는 분산을 최대화한다는 점에서 연속 된 각 구성 요소가 하나의 차원으로 가장 …

1
고유 벡터에 대한 시각적 설명이 혼동됩니다. 시각적으로 다른 데이터 세트가 동일한 고유 벡터를 가질 수있는 방법은 무엇입니까?
많은 통계 교과서는 공분산 행렬의 고유 벡터가 무엇인지에 대한 직관적 인 그림을 제공합니다. 벡터 u 및 z 는 고유 벡터를 형성한다 (웰, 고유 축). 이것은 말이됩니다. 그러나 나를 혼란스럽게하는 것은 원시 데이터가 아닌 상관 행렬 에서 고유 벡터를 추출한다는 것 입니다. 또한, 매우 다른 원시 데이터 세트는 동일한 상관 행렬을 …

1
논문은“주요 구성 요소의 수를 결정하기위한 몬테 카를로 시뮬레이션”을 언급합니다. 어떻게 작동합니까?
10304x236 크기의 매트릭스에서 PCA를 수행 한 MRI 데이터에 대해 Matlab 분석을 수행하고 있습니다. 여기서 10304는 복셀 수 (픽셀로 생각)이고 236은 시점 수입니다. PCA는 236 개의 고유 값과 관련 계수를 제공합니다. 이건 다 괜찮아 그러나 보유 할 구성 요소 수를 결정해야 할 때 복제중인 용지는 다음과 같이 말합니다 (전체 용지의 짧은 …

2
XX '와 X'X의 고유 값 분해를 통해 유효한 X의 SVD를 얻을 수없는 이유는 무엇입니까?
SVD를 손으로하려고합니다. m<-matrix(c(1,0,1,2,1,1,1,0,0),byrow=TRUE,nrow=3) U=eigen(m%*%t(m))$vector V=eigen(t(m)%*%m)$vector D=sqrt(diag(eigen(m%*%t(m))$values)) U1=svd(m)$u V1=svd(m)$v D1=diag(svd(m)$d) U1%*%D1%*%t(V1) U%*%D%*%t(V) 그러나 마지막 줄은 m다시 돌아 오지 않습니다 . 왜? 이 고유 벡터의 표시와 관련이있는 것 같습니다 ... 아니면 절차를 오해 했습니까?
9 r  svd  eigenvalues 

2
왜 내 첫 번째 PC에서 설명하는 분산의 양이 평균 쌍별 상관 관계에 가깝습니까?
첫 번째 주성분과 상관 행렬의 평균 상관 관계는 무엇입니까? 예를 들어, 경험적 응용에서 평균 상관 관계는 첫 번째 주성분의 분산 비율 (첫 번째 고유 값)과 총 분산 (모든 고유 값의 합계)의 비율과 거의 같습니다. 수학적 관계가 있습니까? 아래는 실험 결과의 차트입니다. 여기서 상관 관계는 15 일 롤링 기간 동안 계산 …

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.