«pca» 태그된 질문

주성분 분석 (PCA)은 선형 차원 축소 기법입니다. 다변량 데이터 세트를 가능한 한 많은 정보 (많은 분산)를 유지하는 더 작은 구성 변수 세트로 줄입니다. 주성분이라고하는 이러한 변수는 입력 변수의 선형 조합입니다.

1
R 함수 'princomp'와 'prcomp'가 다른 고유 값을 제공하는 이유는 무엇입니까?
decathlon 데이터 셋 {FactoMineR}을 사용하여이를 재현 할 수 있습니다. 문제는 계산 된 고유 값이 공분산 행렬의 고유 값과 다른 이유입니다. 다음을 사용하는 고유 값은 다음과 같습니다 princomp. > library(FactoMineR);data(decathlon) > pr <- princomp(decathlon[1:10], cor=F) > pr$sd^2 Comp.1 Comp.2 Comp.3 Comp.4 Comp.5 Comp.6 1.348073e+02 2.293556e+01 9.747263e+00 1.117215e+00 3.477705e-01 1.326819e-01 Comp.7 Comp.8 …
22 r  pca 

2
시계열 데이터에 PCA를 적용 할 수 있습니까?
PCA (Principal Component Analysis)는 기본적으로 단면 데이터에 적용 할 수 있음을 이해합니다. 연도를 시계열 변수로 지정하고 PCA를 정상적으로 실행하여 PCA를 시계열 데이터에 효과적으로 사용할 수 있습니까? 동적 PCA가 패널 데이터에 대해 작동하고 Stata의 코딩이 시계열이 아닌 패널 데이터에 맞게 설계된다는 것을 알았습니다. 시계열 데이터에서 작동하는 특정 유형의 PCA가 있습니까? 최신 …
22 time-series  pca 

2
때 "단위 분산"능형 회귀 추정기의 한계
에 단위 제곱합 (즉, 단위 분산) 이 있어야한다는 추가 제약 조건으로 능선 회귀를 고려하십시오 . 필요한 경우 에는 단위 제곱의 합도 있다고 가정 할 수 있습니다. y를y^y^\hat{\mathbf y}yy\mathbf y β^∗λ=argmin{∥y−Xβ∥2+λ∥β∥2}s.t.∥Xβ∥2=1.β^λ∗=arg⁡min{‖y−Xβ‖2+λ‖β‖2}s.t.‖Xβ‖2=1.\hat{\boldsymbol\beta}_\lambda^* = \arg\min\Big\{\|\mathbf y - \mathbf X \boldsymbol \beta\|^2+\lambda\|\boldsymbol\beta\|^2\Big\} \:\:\text{s.t.}\:\: \|\mathbf X \boldsymbol\beta\|^2=1. \ lambda \ to \ infty 일 때 …

3
차원이 샘플 수보다 큰 경우 PCA
나는 분류기에 전달 해야하는 14000 데이터 포인트 (치수)를 포함하는 10 명 (100 샘플)에 대해 10 개의 신호 / 사람이있는 시나리오를 보았습니다. 이 데이터의 차원을 줄이고 싶습니다. PCA가 그렇게하는 것 같습니다. 그러나 샘플 수가 차원 수보다 큰 PCA의 예만 찾을 수있었습니다. SVD를 사용하여 PC를 찾는 PCA 응용 프로그램을 사용하고 있습니다. 100x14000 …

3
랜덤 데이터의 SVD 결과에서 이상한 상관 관계; 수학적 설명이 있거나 LAPACK 버그입니까?
임의 데이터의 SVD 결과에서 매우 이상한 동작을 관찰했습니다. Matlab과 R 모두에서 재현 할 수 있습니다. LAPACK 라이브러리의 수치 문제처럼 보입니다. 그렇습니까? 제로 평균과 항등 공분산을 갖는 차원 가우스 에서 샘플을 그 립니다 : . 데이터 매트릭스 조립합니다 . (선택적으로 중심 에 둘 수 있으며, 다음에 영향을 미치지 않습니다.) 그런 다음 …

4
FPCA (Functional Principal Component Analysis) : 모든 것이 무엇입니까?
FPCA (Functional Principal Component Analysis)는 내가 우연히 발견했지만 이해하지 못한 것입니다. 무엇에 관한 것입니까? 2011 년 Shang의 "기능적 주요 구성 요소 분석 조사"를 참조하십시오 . PCA는“차원의 저주”(Bellman 1961)로 인해 기능 데이터를 분석하는 데 심각한 어려움을 겪습니다. "차원의 저주"는 고차원 공간의 데이터 희소성에서 비롯됩니다. PCA의 기하학적 특성이 유효하고 수치 기법이 안정적인 …

2
numpy 및 sklearn의 PCA는 다른 결과를 생성합니다
내가 뭔가를 오해하고 있습니까? 이것은 내 코드입니다 sklearn을 사용하여 import numpy as np import matplotlib.pyplot as plt from mpl_toolkits.mplot3d import Axes3D from sklearn import decomposition from sklearn import datasets from sklearn.preprocessing import StandardScaler pca = decomposition.PCA(n_components=3) x = np.array([ [0.387,4878, 5.42], [0.723,12104,5.25], [1,12756,5.52], [1.524,6787,3.94], ]) pca.fit_transform(x) 산출: array([[ -4.25324997e+03, -8.41288672e-01, …

4
PCA 공간에 새로운 벡터를 투영하는 방법?
주성분 분석 (PCA)을 수행 한 후 PCA 공간에 새 벡터를 투영하려고합니다 (즉, PCA 좌표계에서 해당 좌표를 찾습니다). 를 사용하여 R 언어로 PCA를 계산했습니다 prcomp. 이제 내 벡터에 PCA 회전 행렬을 곱할 수 있어야합니다. 이 매트릭스의 주요 구성 요소를 행 또는 열로 배열해야합니까?
21 r  pca  r  variance  heteroscedasticity  misspecification  distributions  time-series  data-visualization  modeling  histogram  kolmogorov-smirnov  negative-binomial  likelihood-ratio  econometrics  panel-data  categorical-data  scales  survey  distributions  pdf  histogram  correlation  algorithms  r  gpu  parallel-computing  approximation  mean  median  references  sample-size  normality-assumption  central-limit-theorem  rule-of-thumb  confidence-interval  estimation  mixed-model  psychometrics  random-effects-model  hypothesis-testing  sample-size  dataset  large-data  regression  standard-deviation  variance  approximation  hypothesis-testing  variance  central-limit-theorem  kernel-trick  kernel-smoothing  error  sampling  hypothesis-testing  normality-assumption  philosophical  confidence-interval  modeling  model-selection  experiment-design  hypothesis-testing  statistical-significance  power  asymptotics  information-retrieval  anova  multiple-comparisons  ancova  classification  clustering  factor-analysis  psychometrics  r  sampling  expectation-maximization  markov-process  r  data-visualization  correlation  regression  statistical-significance  degrees-of-freedom  experiment-design  r  regression  curve-fitting  change-point  loess  machine-learning  classification  self-study  monte-carlo  markov-process  references  mathematical-statistics  data-visualization  python  cart  boosting  regression  classification  robust  cart  survey  binomial  psychometrics  likert  psychology  asymptotics  multinomial 

1
PCA / 대응 분석에서 "말발굽 효과"및 / 또는 "아치 효과"란 무엇입니까?
다차원 데이터의 탐색 적 데이터 분석을위한 생태 통계에는 많은 기술이 있습니다. 이것을 '조정'기술이라고합니다. 대부분 통계의 다른 곳에서 공통 기술과 동일하거나 밀접하게 관련되어 있습니다. 아마도 프로토 타입 예제는 주성분 분석 (PCA) 일 것입니다. 생태 학자들은 PCA와 관련 기술을 사용하여 '그라데이션'을 탐색 할 수 있습니다 (그라데이션이 무엇인지 완전히 명확하지는 않지만 조금 그것에 …

2
PCA에 비해 SVD의 장점이 있습니까?
나는 PCA와 SVD를 수학적으로 계산하는 방법을 알고 있으며, 둘 다 선형 최소 제곱 법 회귀에 적용 할 수 있다는 것을 알고 있습니다. SVD의 주요 장점은 수학적으로 비 제곱 행렬에 적용될 수 있다는 것입니다. 둘 다 행렬 의 분해에 중점을 둡니다 . 언급 된 SVD의 이점 외에, PCA를 통해 SVD를 사용하여 …
20 pca  least-squares  svd 

2
요인 점수를 계산하는 방법 및 PCA 또는 요인 분석에서 "점수 계수"매트릭스는 무엇입니까?
내 이해에 따르면, 상관 관계에 기반한 PCA에서는 변수와 요인 사이의 상관 관계에 불과한 요인 (이 경우 주요 구성 요소) 로딩을 얻습니다. 이제 SPSS에서 요인 점수 를 생성해야 할 때 각 요인에 대한 각 응답자의 요인 점수를 직접 얻을 수 있습니다. 또한 SPSS에서 생성 한 " 구성 요소 점수 계수 행렬 …

6
비 가우시안 데이터의 PCA
PCA에 대한 몇 가지 빠른 질문이 있습니다. PCA 는 데이터 세트가 가우스 인 것으로 가정 합니까 ? 본질적으로 비선형 데이터에 PCA를 적용하면 어떻게됩니까? 데이터 세트가 주어지면 프로세스는 먼저 평균 정규화, 분산을 1로 설정하고 SVD를 취하고 순위를 줄이고 마지막으로 데이터 세트를 새로운 감소 된 순위 공간에 매핑합니다. 새로운 공간에서 각 차원은 …
20 pca  svd 

3
R의 rollapply PCA에서 "점프"로딩을 받고 있습니다. 수정할 수 있습니까?
28 개의 다른 통화에 대한 10 년 간의 일일 반품 데이터가 있습니다. 첫 번째 주요 구성 요소를 추출하고 싶지만 10 년 전체에 PCA를 운영하는 대신 통화의 동작이 발전하고이를 반영하기 위해 2 년 창을 적용하고 싶습니다. 그러나 중요한 문제가 있습니다. 즉, princomp () 및 prcomp () 함수는 종종 인접한 PCA 분석에서 …
20 r  pca 

4
엣지 케이스의 정밀도 및 리콜에 대한 올바른 값은 무엇입니까?
정밀도는 다음과 같이 정의됩니다. p = true positives / (true positives + false positives) 로, 즉를 정확 true positives하고 false positives, 정밀도가 한 접근 방식 0? 리콜에 대한 동일한 질문 : r = true positives / (true positives + false negatives) 현재이 값을 계산 해야하는 통계 테스트를 구현 중이며 때로는 …
20 precision-recall  data-visualization  logarithm  references  r  networks  data-visualization  standard-deviation  probability  binomial  negative-binomial  r  categorical-data  aggregation  plyr  survival  python  regression  r  t-test  bayesian  logistic  data-transformation  confidence-interval  t-test  interpretation  distributions  data-visualization  pca  genetics  r  finance  maximum  probability  standard-deviation  probability  r  information-theory  references  computational-statistics  computing  references  engineering-statistics  t-test  hypothesis-testing  independence  definition  r  censoring  negative-binomial  poisson-distribution  variance  mixed-model  correlation  intraclass-correlation  aggregation  interpretation  effect-size  hypothesis-testing  goodness-of-fit  normality-assumption  small-sample  distributions  regression  normality-assumption  t-test  anova  confidence-interval  z-statistic  finance  hypothesis-testing  mean  model-selection  information-geometry  bayesian  frequentist  terminology  type-i-and-ii-errors  cross-validation  smoothing  splines  data-transformation  normality-assumption  variance-stabilizing  r  spss  stata  python  correlation  logistic  logit  link-function  regression  predictor  pca  factor-analysis  r  bayesian  maximum-likelihood  mcmc  conditional-probability  statistical-significance  chi-squared  proportion  estimation  error  shrinkage  application  steins-phenomenon 


당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.