«factor-analysis» 태그된 질문

요인 분석은 상관 관계 변수를 요인이라고하는 더 적은 수의 연속 잠복 변수로 대체하는 차원 축소 잠재 변수 기술입니다. 이 요인들은 상호 상관 관계를 담당하는 것으로 여겨집니다. [확인 요인 분석을 위해서는 태그 '확인 요인'을 사용하십시오. 또한 요인 분석의 "인자"라는 용어는 회귀 / ANOVA의 범주 형 예측 변수 인 "인자"와 혼동되어서는 안됩니다.]



6
EFA 대신 PCA를 사용해야 할 이유가 있습니까? 또한 PCA가 요인 분석을 대신 할 수 있습니까?
일부 분야에서는 PCA (주성분 분석)가 정당화없이 체계적으로 사용되며 PCA와 EFA (탐사 계수 분석)는 동의어로 간주됩니다. 따라서 최근 PCA를 사용하여 규모 검증 연구 결과 (각 7 개 항목의 3 가지 요소를 구성하는 것으로 추정되는 7 점 리 커트 척도의 21 개 항목)를 분석했으며, 검토자가 EFA 대신 PCA를 선택한 이유를 묻습니다. 두 …

2
독립 성분 분석과 요인 분석의 관계는 무엇입니까?
저는 ICA (Independent Component Analysis)를 처음 사용했으며이 방법에 대한 기본적인 이해를했습니다. ICA는 한 가지 예외를 제외하고는 요인 분석 (FA)과 유사합니다. ICA는 관측 된 랜덤 변수가 비가 우스 독립 성분 / 인자의 선형 조합 인 것으로 가정하지만 고전적인 FA 모델은 관측 된 랜덤 변수를 가정합니다. 상관 된 가우스 성분 / 인자의 …

8
PCA 다음에 회전 (varimax 등)이 여전히 PCA입니까?
나는 내 경험에 R.에서 SPSS에서 (PCA를 사용하여) 몇 가지 조사를 재현하려 한 principal() 기능 패키지는 psych듯했으나, 유일한 기능이었다 (또는 내 기억이 바로 내를 제공하는 경우에 죽은) 출력에 맞게. SPSS에서와 동일한 결과를 얻으려면 parameter를 사용해야했습니다 principal(..., rotate = "varimax"). 나는 논문이 PCA를 어떻게 수행했는지에 대해 이야기하는 것을 보았지만 SPSS의 출력과 회전 …

2
PCA가 분산을 설명하는 동안 요인 분석은 공분산을 어떻게 설명합니까?
다음은 Bishop의 "패턴 인식 및 기계 학습"책, 12.2.4 "인자 분석"에서 인용 한 내용입니다. 강조 표시된 부분에 따르면, 요인 분석 은 행렬 변수 간 ​​공분산을 캡처합니다WWW . 나는 어떻게 궁금해 ? 내가 이해하는 방법은 다음과 같습니다. 말 관측 인 , 차원 변수 인자 로딩 매트릭스이며, 계수 스코어 벡터이다. 그러면 이 있습니다. …

3
PCA 또는 FA에서 점수 또는 하중 표시는 의미가 있습니까? 부호를 뒤집을 수 있습니까?
두 가지 다른 함수 ( prcomp및 princomp)를 사용하여 R을 사용하여 주성분 분석 (PCA)을 수행 했으며 PCA 점수가 다른 것으로 나타났습니다. 어떻게 할 수 있습니까? 이걸 고려하세요: set.seed(999) prcomp(data.frame(1:10,rnorm(10)))$x PC1 PC2 [1,] -4.508620 -0.2567655 [2,] -3.373772 -1.1369417 [3,] -2.679669 1.0903445 [4,] -1.615837 0.7108631 [5,] -0.548879 0.3093389 [6,] 0.481756 0.1639112 [7,] 1.656178 …
36 r  pca  factor-analysis 

1
Factor Analysis / PCA에서 회전을 수행 한 이유와 적절한 회전을 선택하는 직관적 인 이유는 무엇입니까?
내 질문 요인 분석 (또는 PCA의 구성 요소)에서 요인의 회전을 수행하는 직관적 인 이유는 무엇입니까? 변수가 최상위 구성 요소 (또는 요인)에 거의 똑같이로드되면 구성 요소를 구별하기가 어렵다는 것을 이해합니다. 따라서이 경우 회전을 사용하여 구성 요소를 더 잘 차별화 할 수 있습니다. 이 올바른지? 회전을하면 어떤 결과가 발생합니까? 이것은 어떤 영향을 …

3
상관 관계 또는 공분산에 대한 PCA : 상관 관계에 대한 PCA는 의미가 있습니까? [닫은]
주성분 분석 (PCA)에서 공분산 행렬 또는 상관 행렬을 선택하여 성분을 찾을 수 있습니다 (각 고유 벡터에서). 두 행렬 사이의 고유 벡터가 같지 않기 때문에 서로 다른 결과 (PC 로딩 및 점수)를 제공합니다. 내 이해는 이것이 원시 데이터 벡터 와 표준화 가 직교 변환을 통해 연관 될 수 없기 때문에 발생한다는 …

5
머신 러닝에서 계층 적 / 중첩 된 데이터를 처리하는 방법
예를 들어 내 문제를 설명하겠습니다. {나이, 성별, 국가, 지역, 도시}와 같은 속성이 주어진 개인의 소득을 예측한다고 가정합니다. 당신은 이와 같은 훈련 데이터 세트를 가지고 있습니다 train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4, 5,5,5,5), CityID=c(1,1,2,3, 4,5,6,6, 7,7,7,8), Age=c(23,48,62,63, 25,41,45,19, 37,41,31,50), Gender=factor(c("M","F","M","F", "M","F","M","F", "F","F","F","M")), Income=c(31,42,71,65, 50,51,101,38, 47,50,55,23)) train CountryID RegionID CityID Age …
29 regression  machine-learning  multilevel-analysis  correlation  dataset  spatial  paired-comparisons  cross-correlation  clustering  aic  bic  dependent-variable  k-means  mean  standard-error  measurement-error  errors-in-variables  regression  multiple-regression  pca  linear-model  dimensionality-reduction  machine-learning  neural-networks  deep-learning  conv-neural-network  computer-vision  clustering  spss  r  weighted-data  wilcoxon-signed-rank  bayesian  hierarchical-bayesian  bugs  stan  distributions  categorical-data  variance  ecology  r  survival  regression  r-squared  descriptive-statistics  cross-section  maximum-likelihood  factor-analysis  likert  r  multiple-imputation  propensity-scores  distributions  t-test  logit  probit  z-test  confidence-interval  poisson-distribution  deep-learning  conv-neural-network  residual-networks  r  survey  wilcoxon-mann-whitney  ranking  kruskal-wallis  bias  loss-functions  frequentist  decision-theory  risk  machine-learning  distributions  normal-distribution  multivariate-analysis  inference  dataset  factor-analysis  survey  multilevel-analysis  clinical-trials 

1
요인 분석에서 최상의 요인 추출 방법
SPSS는 여러 가지 요인 추출 방법을 제공합니다. 주요 구성 요소 (요인 분석이 아님) 비가 중 최소 제곱 일반화 된 최소 제곱 최대 가능성 주축 알파 팩토링 이미지 팩토링 요인 분석 (주요 성분 분석, PCA)이 아닌 첫 번째 방법을 무시합니다.이 중 어떤 방법이 가장 적합합니까? 다른 방법의 상대적인 장점은 무엇입니까? 그리고 …


1
순서 또는 이진 데이터에 대한 요인 분석 또는 PCA가 있습니까?
주요 성분 분석 (PCA), 탐색 적 요인 분석 (EFA) 및 확인 적 요인 분석 (CFA)을 완료하여 리 커트 척도 (5 단계 응답 : 없음, 약간, 약간, ..)로 데이터를 연속으로 처리했습니다. 변하기 쉬운. 그런 다음 Lavaan을 사용하여 변수를 범주 형으로 정의하는 CFA를 반복했습니다. 데이터가 본질적인 경우 어떤 유형의 분석이 적합하고 PCA …

1
lmer 모델의 효과 반복 계산
방금 혼합 효과 모델링을 통해 측정의 반복성 (일명 신뢰성, 일명 클래스 내 상관 관계)을 계산하는 방법을 설명하는 이 문서를 보았습니다. R 코드는 다음과 같습니다. #fit the model fit = lmer(dv~(1|unit),data=my_data) #obtain the variance estimates vc = VarCorr(fit) residual_var = attr(vc,'sc')^2 intercept_var = attr(vc$id,'stddev')[1]^2 #compute the unadjusted repeatability R = intercept_var/(intercept_var+residual_var) …
28 mixed-model  reliability  intraclass-correlation  repeatability  spss  factor-analysis  survey  modeling  cross-validation  error  curve-fitting  mediation  correlation  clustering  sampling  machine-learning  probability  classification  metric  r  project-management  optimization  svm  python  dataset  quality-control  checking  clustering  distributions  anova  factor-analysis  exponential  poisson-distribution  generalized-linear-model  deviance  machine-learning  k-nearest-neighbour  r  hypothesis-testing  t-test  r  variance  levenes-test  bayesian  software  bayesian-network  regression  repeated-measures  least-squares  change-scores  variance  chi-squared  variance  nonlinear-regression  regression-coefficients  multiple-comparisons  p-value  r  statistical-significance  excel  sampling  sample  r  distributions  interpretation  goodness-of-fit  normality-assumption  probability  self-study  distributions  references  theory  time-series  clustering  econometrics  binomial  hypothesis-testing  variance  t-test  paired-comparisons  statistical-significance  ab-test  r  references  hypothesis-testing  t-test  normality-assumption  wilcoxon-mann-whitney  central-limit-theorem  t-test  data-visualization  interactive-visualization  goodness-of-fit 

1
자유도는 정수가 아닌 숫자 일 수 있습니까?
GAM을 사용할 때 잔여 DF는 (코드의 마지막 줄). 그게 무슨 뜻이야? GAM 예제를 넘어 서면 일반적으로 자유도는 정수가 아닌 숫자 일 수 있습니까?26.626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) Deviance Residuals: Min 1Q Median 3Q Max -4.1470 -1.6217 -0.8971 1.2445 6.0516 (Dispersion Parameter …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.