«matrix-decomposition» 태그된 질문

행렬 분해는 행렬을 더 작은 행렬의 곱으로 분해하는 과정을 말합니다. 큰 행렬을 분해함으로써 많은 행렬 알고리즘을 효율적으로 수행 할 수 있습니다.

1
큰 희소 행렬의 차원 축소 (SVD 또는 PCA)
/ 편집 : 추가 후속 조치 irlba :: prcomp_irlba를 사용할 수 있습니다 / 편집 : 내 자신의 게시물에 후속. irlba이제 "center"및 "scale"인수를 사용하여이를 사용하여 기본 구성 요소를 계산할 수 있습니다. 예 : pc <- M %*% irlba(M, nv=5, nu=0, center=colMeans(M), right_only=TRUE)$v Matrix기계 학습 알고리즘에 사용하려는 크고 작은 기능이 있습니다. library(Matrix) …


2
데이터의 SVD를 통해 PCA가 필요한 이유는 무엇입니까?
이 질문은 주요 구성 요소를 계산하는 효율적인 방법에 관한 것입니다. linear PCA의 많은 텍스트는 대소 문자 데이터 의 단일 값 분해를 사용하여 옹호 합니다 . 우리는 데이터가있는 경우 즉, 하고, 변수 (그 교체 할 열을 주요 구성 요소), 우리가 할 SVD : (제곱. 고유치의 뿌리), 특이 값의 주요 대각선을 점유은 …

1
R에서 행렬 역의 효율적인 계산
행렬을 역으로 계산하고 solve함수를 사용하고 있습니다. 작은 행렬에서는 잘 작동하지만 solve큰 행렬에서는 속도가 매우 느립니다. SVD, QR, LU 또는 기타 분해 기능을 통해 더 빠른 결과를 얻을 수있는 다른 기능이나 기능 조합이 있는지 궁금합니다.

5
매트릭스 분해에 관한 필수 논문
나는 최근 매트릭스 분해에 관한 Skillicorn의 책을 읽었으며 학부 청중을 대상으로하기 때문에 약간 실망했습니다. 나는 매트릭스 분해에 관한 필수 논문 (설문 조사뿐만 아니라 획기적인 논문)의 짧은 참고 문헌을 (나 자신과 다른 사람들을 위해) 편집하고 싶다. 내가 염두에두고 주로 SVD / PCA (및 견고 / 희소 변형) 및 NNMF에 관한 것이 …

1
행렬에 새 행을 하나 추가 한 후 SVD 분해 업데이트
SVD 분해 A = U S V with 인 m × n 크기 의 밀도가 높은 행렬 가 있다고 가정합니다 . 에서 나는 SVD를 계산할 수 있습니다 다음과 같습니다 .AA \textbf{A}m×nm×nm \times nA=USV⊤.A=USV⊤.\mathbf{A}=\mathbf{USV}^\top.Rsvd(A) 새로운 번째 행이 A에 추가되면 SVD를 처음부터 다시 계산하지 않고 이전 행을 기반으로 새 SVD 분해를 계산할 …

1
시계열의 인접 행렬의 고유 함수?
간단한 시계열을 고려하십시오. > tp <- seq_len(10) > tp [1] 1 2 3 4 5 6 7 8 9 10 이 시계열에 대한 인접 행렬을 계산하여 샘플 간의 시간적 링크를 나타냅니다. 이 행렬을 계산할 때 우리는 시간 0에 가상의 사이트를 추가하고이 관찰과 시간 1의 첫 번째 실제 관찰 사이의 링크를 …

2
R의 고유 값과 고유 벡터에서 타원을 그리는 방법은 무엇입니까? [닫은]
닫은. 이 질문은 주제에 맞지 않습니다 . 현재 답변을받지 않습니다. 이 질문을 개선하고 싶습니까? 교차 검증에 대한 주제가 되도록 질문을 업데이트하십시오 . 휴일 2 년 전 . 누군가가 마련 수 R의 고유 값으로부터 타원과 같은 행렬의 고유 벡터 플롯 코드 A = ( 2.20.40.42.8)ㅏ=(2.20.40.42.8) \mathbf{A} = \left( \begin{array} {cc} 2.2 …

3
음이 아닌 행렬 분해에서 최적의 잠재 요인 수를 선택하는 방법은 무엇입니까?
매트릭스 주어 Vm×nVm×n\mathbf V^{m \times n} , 음수가 아닌 매트릭스 인수 분해 (NMF)는 두 개의 음수가 아닌 행렬 찾은 Wm×kWm×k\mathbf W^{m \times k} 및 Hk×nHk×n\mathbf H^{k \times n} (즉, 모든 요소 ≥0≥0\ge 0 )으로 분해 된 매트릭스를 나타내는 : V≈WH,V≈WH,\mathbf V \approx \mathbf W\mathbf H, 예를 들어, 음이 아닌 WW\mathbf …

1
'고유'가 행렬 반전에 어떻게 도움이되는지 설명
내 질문은 geoR:::.negloglik.GRF또는 에서 악용 된 계산 기술과 관련이 geoR:::solve.geoR있습니다. 선형 혼합 모델 설정에서 : 여기서 와 는 각각 고정 및 랜덤 효과입니다. 또한β b Σ = cov ( Y )와이= Xβ+ Zb + eY=Xβ+Zb+e Y=X\beta+Zb+e ββ\beta비bbΣ = 코브 ( Y)Σ=cov(Y)\Sigma=\text{cov}(Y) 효과를 추정 할 때, 계산에 필요가있다 일반적으로 같은 것을 …

1
협업 필터링의 최신 기술
CF (collaborative filtering)를위한 프로젝트, 즉 부분적으로 관찰 된 매트릭스 또는보다 일반적으로 텐서를 완성하는 중입니다. 나는이 분야의 초보자이며,이 프로젝트를 위해 우리의 방법을 요즘 제안 된 방법, 즉 CF의 최신 기술과 비교하는 다른 잘 알려진 방법과 비교해야합니다. 내 검색에서 다음 방법이 밝혀졌습니다. 실제로 나는이 논문들과 참고 문헌을 보거나 그들이 비교할 때 실험 …

1
R / mgcv : te () 및 ti () 텐서 제품이 다른 표면을 생성하는 이유는 무엇입니까?
mgcv에 대한 패키지는 R텐서 제품의 상호 작용을 피팅에 대한 두 가지 기능이 있습니다 : te()와 ti(). 나는 둘 사이의 기본 노동 분열을 이해한다 (비선형 상호 작용에 적합하고이 상호 작용을 주요 효과와 상호 작용으로 분해). 내가 이해할 수없는 것은 왜 te(x1, x2)와 ti(x1) + ti(x2) + ti(x1, x2)(약간) 다른 결과가 발생할 …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 

1
공동 필터링 / 추천 시스템에 비음 수가 중요한 이유는 무엇입니까?
내가 본 모든 현대 추천 시스템에서 행렬 인수 분해에 의존하는 것은 음수가 아닌 행렬 인수 분해가 사용자 영화 행렬에서 수행됩니다. 비 음성이 왜 해석 성 및 / 또는 희소 요인을 원하는지 이해하는 이유를 이해할 수 있습니다. 그러나 넷플릭스 상 경쟁에서와 같이 예측 성능에만 관심이 있다면 왜 부정이 아닌 제한을 적용해야합니까? …


2
로지스틱 손실 기능으로 매트릭스 인수 분해를 통한 협업 필터링
협업 필터링 문제를 고려하십시오. #users * #items 크기의 행렬 이 있습니다. 사용자 i가 항목 j를 좋아하면 이고, 사용자 i가 항목 j를 좋아하지 않으면 이고(i, j) 쌍에 대한 데이터가없는 경우 향후 사용자, 항목 쌍에 대한 를 예측하려고합니다 .MMMMi,j=1Mi,j=1M_{i,j} = 1Mi,j=0Mi,j=0M_{i,j} = 0미디엄I , J= ?Mi,j=?M_{i,j}=?미디엄I , JMi,jM_{i,j} 표준 협력 필터링 방식은 …

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.