«svd» 태그된 질문

행렬의 특이 값 분해 (SVD) A ~에 의해 주어진다 A=USV 어디 UV 직교 행렬이고 에스 대각 행렬입니다.

2
XX '와 X'X의 고유 값 분해를 통해 유효한 X의 SVD를 얻을 수없는 이유는 무엇입니까?
SVD를 손으로하려고합니다. m<-matrix(c(1,0,1,2,1,1,1,0,0),byrow=TRUE,nrow=3) U=eigen(m%*%t(m))$vector V=eigen(t(m)%*%m)$vector D=sqrt(diag(eigen(m%*%t(m))$values)) U1=svd(m)$u V1=svd(m)$v D1=diag(svd(m)$d) U1%*%D1%*%t(V1) U%*%D%*%t(V) 그러나 마지막 줄은 m다시 돌아 오지 않습니다 . 왜? 이 고유 벡터의 표시와 관련이있는 것 같습니다 ... 아니면 절차를 오해 했습니까?
9 r  svd  eigenvalues 

1
LSI의 맥락에서 특이 값 분해 이해
내 질문은 일반적으로 SVD (Singular Value Decomposition), 특히 LSI (Latent Semantic Indexing)에 관한 것입니다. 예 를 들어, 7 개의 문서에 대해 5 개의 단어 빈도를 포함하는 가 있습니다.ㅏw o r d× do c u m e n tAword×document A_{word \times document} A = matrix(data=c(2,0,8,6,0,3,1, 1,6,0,1,7,0,1, 5,0,7,4,0,5,6, 7,0,8,5,0,8,5, 0,10,0,0,7,0,0), ncol=7, byrow=TRUE) …

1
LSA와 pLSA의 파렐
pLSA 의 원본 논문 에서 저자 인 Thomas Hoffman은 제가 논의하고자하는 pLSA와 LSA 데이터 구조 사이에 유사점을 두었습니다. 배경: 정보 검색에서 영감을 얻은 것은 NNN 서류 D={d1,d2,....,dN}D={d1,d2,....,dN}D = \lbrace d_1, d_2, ...., d_N \rbrace 그리고 어휘 MMM 자귀 Ω={ω1,ω2,...,ωM}Ω={ω1,ω2,...,ωM}\Omega = \lbrace \omega_1, \omega_2, ..., \omega_M \rbrace 코퍼스 XXX 로 나타낼 …


1
차원 축소 / 다차원 스케일링 결과를 해석하는 방법은 무엇입니까?
데이터 구조를 더 잘 이해하기 위해 SVD 분해와 6 차원 데이터 매트릭스의 다차원 스케일링을 모두 수행했습니다. 불행히도 모든 특이 값은 순서가 동일하므로 데이터의 차원이 실제로 6이라는 것을 의미합니다. 그러나 저는 특이 벡터의 값을 해석하고 싶습니다. 예를 들어, 첫 번째는 각 차원에서 (또는) 거의 같거나 (1,1,1,1,1,1)두 번째는 흥미로운 구조 (와 같은 …
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.