«svd» 태그된 질문

행렬의 특이 값 분해 (SVD) A ~에 의해 주어진다 A=USV 어디 UV 직교 행렬이고 에스 대각 행렬입니다.

3
다변량 정규 분포에서 표본을 추출하기위한 hole 레 스키 대 고유 분해
샘플 싶습니다 . Wikipedia 는 hole 레 스키 (Cholesky) 또는 고유 분해 (Eigendecomposition) , 즉 Σ = D 1 D T 1 또는 Σ = Q Λ Q Tx∼N(0,Σ)x∼N(0,Σ)\mathbf{x} \sim N\left(\mathbf{0}, \mathbf{\Sigma} \right)Σ=D1DT1Σ=D1D1T \mathbf{\Sigma} = \mathbf{D}_1\mathbf{D}_1^T Σ=QΛQTΣ=QΛQT \mathbf{\Sigma} = \mathbf{Q}\mathbf{\Lambda}\mathbf{Q}^T 따라서 샘플은 다음을 통해 그릴 수 있습니다 : 또는 x …

2
차원 축소를 클러스터링과 언제 결합합니까?
문서 수준 클러스터링을 수행하려고합니다. 용어 문서 주파수 행렬을 구성했으며 k- 평균을 사용하여 이러한 고차원 벡터를 군집화하려고합니다. 직접 클러스터링 대신, 먼저 LSA (Latent Semantic Analysis) 특이 벡터 분해를 적용하여 U, S, Vt 행렬을 구하고, scree plot을 사용하여 적절한 임계 값을 선택하고 축소 된 행렬에 클러스터링을 적용했습니다 (특히 Vt 그것은 나에게 좋은 …

1
시계열의 인접 행렬의 고유 함수?
간단한 시계열을 고려하십시오. > tp <- seq_len(10) > tp [1] 1 2 3 4 5 6 7 8 9 10 이 시계열에 대한 인접 행렬을 계산하여 샘플 간의 시간적 링크를 나타냅니다. 이 행렬을 계산할 때 우리는 시간 0에 가상의 사이트를 추가하고이 관찰과 시간 1의 첫 번째 실제 관찰 사이의 링크를 …

1
GSVD는 모든 선형 다변량 기법을 구현합니까?
나는 일반적인 SVD에 관한 Hervé Abdi 의 기사를 보았습니다 . 저자는 언급했다 : 일반화 된 SVD (GSVD)는 직사각형 행렬을 분해하고 행렬의 행과 열에 부과 된 제약 조건을 고려합니다. GSVD는 하위 행렬로 주어진 행렬의 가중 일반화 된 최소 제곱 추정값을 제공하므로, 적절한 제약 조건을 선택하여 GSVD는 모든 선형 다변량 기법 (예 …


3
잘린 SVD를 계산하기 위해 어떤 빠른 알고리즘이 있습니까?
아마도 여기서는 주제에서 벗어 났지만 이미 몇 가지 ( 1 , 2 ) 관련 질문이 있습니다. 문헌 (또는 잘린 SVD 알고리즘에 대한 구글 검색)에서 주변에 파고 것은 논문이 많이 변합니다 사용 다양한 방법으로 잘립니다 SVDs, 그리고 주장 거기를 계산하는 빠른 알고리즘이 있지만, 아무도 그 (자주 인용하지 않고, 절망적를) 그 알고리즘이 …

2
랜덤 행렬의 경우 SVD가 전혀 설명하지 않아야합니까? 내가 도대체 ​​뭘 잘못하고있는 겁니까?
전적으로 임의의 데이터로 구성된 2 차원 행렬을 구성하면 PCA 및 SVD 구성 요소가 본질적으로 아무 것도 설명하지 않을 것입니다. 대신 첫 번째 SVD 열이 데이터의 75 %를 설명하는 것처럼 보입니다. 이것이 어떻게 가능할까요? 내가 도대체 ​​뭘 잘못하고있는 겁니까? 줄거리는 다음과 같습니다. R 코드는 다음과 같습니다. set.seed(1) rm(list=ls()) m <- matrix(runif(10000,min=0,max=25), …
13 r  pca  svd 

1
희소 데이터를 기반으로하는 공분산 행렬의 고유 및 svd 분해가 다른 결과를 생성하는 이유는 무엇입니까?
희소 / 갭피 데이터 세트를 기반으로 공분산 행렬을 분해하려고합니다. 로 계산 된 람다 (설명 된 분산)의 합이 svd점점 더 좁아지는 데이터로 증폭되고 있음을 알았습니다. 틈없이, svd그리고 eigen높을 동일한 결과. 이것은 eigen분해 로 발생하지 않는 것 같습니다 . svd람다 값이 항상 양수이기 때문에 사용에 기울고 있었지만이 경향은 걱정입니다. 적용해야 할 일종의 …
12 r  svd  eigenvalues 

3
결 측값이있는 행렬의 SVD
Netflix 스타일 권장 매트릭스가 있고 특정 사용자의 향후 영화 등급을 예측하는 모델을 만들고 싶다고 가정합니다. Simon Funk의 접근 방식을 사용하면 확률 적 그라디언트 디센트를 사용하여 전체 행렬과 항목 별 * 사용자 별 행렬 사이의 Frobenius 표준을 최소화하여 L2 정규화 항을 사용합니다. 실제로 사람들은 추천 매트릭스의 결 측값으로 무엇을합니까? 계산의 요점은 …

1
PCA의 Scikit-learn 구현과 TruncatedSVD의 차이점
대수 / 정확한 수준에서 주성분 분석과 특이 값 분해 간의 관계를 이해합니다. 내 질문은 scikit-learn 구현 에 관한 것 입니다. " [TruncatedSVD]는 PCA와 매우 유사하지만 공분산 행렬 대신 샘플 벡터에서 직접 작동합니다. "는 두 방법의 대수적 차이를 반영합니다. " 추정자 [TruncatedSVD]는 두 개의 알고리즘을 지원합니다. 빠른 무작위 SVD 솔버와 ARPACK을 …
12 pca  scikit-learn  svd  scipy 

1
파이썬에서 scree plot을 그리는 방법은 무엇입니까? [닫은]
닫은. 이 질문은 주제에 맞지 않습니다 . 현재 답변을받지 않습니다. 이 질문을 개선하고 싶습니까? 교차 검증에 대한 주제가 되도록 질문을 업데이트하십시오 . 작년에 문을 닫았 습니다 . 행렬에서 특이 벡터 분해를 사용하고 U, S 및 Vt 행렬을 얻고 있습니다. 이 시점에서 유지할 차원 수에 대한 임계 값을 선택하려고합니다. 나는 scree …

1
공동 필터링 / 추천 시스템에 비음 수가 중요한 이유는 무엇입니까?
내가 본 모든 현대 추천 시스템에서 행렬 인수 분해에 의존하는 것은 음수가 아닌 행렬 인수 분해가 사용자 영화 행렬에서 수행됩니다. 비 음성이 왜 해석 성 및 / 또는 희소 요인을 원하는지 이해하는 이유를 이해할 수 있습니다. 그러나 넷플릭스 상 경쟁에서와 같이 예측 성능에만 관심이 있다면 왜 부정이 아닌 제한을 적용해야합니까? …

1
SVD 이전에 단어 동시 발생 행렬에 포인트 상호 정보를 적용하는 장단점은 무엇입니까?
단어 포함을 생성하는 한 가지 방법은 다음과 같습니다 ( mirror ). 예를 들어 "나는 비행을 즐긴다. 나는 NLP를 좋아한다. 나는 딥 러닝을 좋아한다." 그것에서 단어 동시성 매트릭스를 빌드하십시오. XXX 에서 SVD를 수행 하고 U 의 첫 번째 kkk 열을 유지하십시오 . U1:|V|,1:kU1:|V|,1:kU_{1:|V|,1:k} 2 단계와 3 단계 사이에 포인트 상호 정보 …

3
코사인 유사성 대 유클리드 거리 (LSA)에 대한 K- 평균
낮은 차원 공간에서 문서 모음을 나타 내기 위해 잠재 의미 분석을 사용하고 있습니다. k- 평균을 사용하여 이러한 문서를 두 그룹으로 묶고 싶습니다. 몇 년 전, 나는 파이썬의 gensim을 사용하여 내 k- 평균 알고리즘을 작성 하여이 작업을 수행했습니다. 유클리드 거리를 사용하여 군집 중심을 결정한 다음 중심과 코사인 유사성을 기반으로 각 문서를 …

1
R 선형 회귀 범주 형 변수 "숨김"값
이것은 여러 번 나온 예제 일뿐이므로 샘플 데이터가 없습니다. R에서 선형 회귀 모델 실행 : a.lm = lm(Y ~ x1 + x2) x1연속 변수입니다. x2범주 형이며 "낮음", "중간"및 "높음"의 세 가지 값이 있습니다. 그러나 R이 제공하는 출력은 다음과 같습니다. summary(a.lm) Estimate Std. Error t value Pr(>|t|) (Intercept) 0.521 0.20 1.446 …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.