«dimensionality-reduction» 태그된 질문

가능한 데이터에 대한 많은 정보를 유지하면서 데이터에 포함 된 많은 변수 또는 차원을 더 적은 수의 차원으로 줄이는 기술을 나타냅니다. 주요 방법으로는 PCA, MDS, Isomap 등이 있습니다. 기술의 두 가지 주요 하위 클래스 : 기능 추출 및 기능 선택.

3
SVD와 PCA의 관계. SVD를 사용하여 PCA를 수행하는 방법?
주성분 분석 (PCA)은 공분산 행렬의 고유 분해를 통해 설명됩니다. 그러나 데이터 행렬 의 단일 값 분해 (SVD)를 통해 수행 할 수도 있습니다 . 어떻게 작동합니까? 이 두 가지 방법의 관계는 무엇입니까? SVD와 PCA의 관계는 무엇입니까?엑스X\mathbf X 즉, 데이터 행렬의 SVD를 사용하여 차원 축소를 수행하는 방법은 무엇입니까?

1
PCA를 되돌리고 여러 주요 구성 요소에서 원래 변수를 재구성하는 방법은 무엇입니까?
PCA (Principal Component Analysis)를 사용하여 치수를 줄일 수 있습니다. 이러한 차원 축소가 수행 된 후 소수의 주요 구성 요소에서 원래 변수 / 기능을 어떻게 대략 재구성 할 수 있습니까? 또는 데이터에서 여러 주요 구성 요소를 어떻게 제거하거나 버릴 수 있습니까? 다시 말해 PCA를 어떻게 바꾸는가? PCA가 SVD (Singular Value Decomposition)와 …

11
어린이에게“차원의 저주”를 설명하십시오
나는 차원의 저주에 대해 여러 번 들었지만 어쨌든 여전히 아이디어를 파악할 수 없습니다. 누구든지 이것을 어린이에게 설명하는 것처럼 가장 직관적 인 방법으로 설명 할 수 있습니까? 그래서 나는 (그리고 다른 사람들은 혼란스러워)이 것을 잘 이해할 수 있습니까? 편집하다: 이제 아이가 어떻게 클러스터링에 대해 들었다고 가정 해 봅시다 (예 : 장난감을 …

4
PCA 및 분산 비율 설명
일반적으로 PCA와 같은 분석에서 분산 의 비율 가 첫 번째 주요 구성 요소로 설명 된다는 것은 무엇을 의미 합니까? 누군가 이것을 직관적으로 설명 할 수 있지만 주성분 분석 (PCA) 측면에서 "변형 설명"의 의미에 대한 정확한 수학적 정의를 제공 할 수 있습니까?엑스엑스x 간단한 선형 회귀 분석의 경우, 최적 제곱의 r 제곱은 …

2
ZCA 미백과 PCA 미백의 차이점은 무엇입니까?
ZCA 미백과 일반 미백 (주요 구성 요소를 PCA 고유 값의 제곱근으로 나눔)에 대해 혼란 스럽습니다. 내가 아는 한, xZCAwhite=UxPCAwhite,xZCAwhite=UxPCAwhite,\mathbf x_\mathrm{ZCAwhite} = \mathbf U \mathbf x_\mathrm{PCAwhite}, 여기서 는 PCA 고유 벡터입니다.UU\mathbf U ZCA 미백의 용도는 무엇입니까? 일반 미백과 ZCA 미백의 차이점은 무엇입니까?

6
여러 수준의 범주 형 변수를 축소하는 주요 방법은 무엇입니까?
통계 모델에서 여러 범주를 입력 (예측 자)으로 사용하기 위해 여러 범주를 축소 (또는 풀링)하는 데 사용할 수있는 기술은 무엇입니까? 대학생 전공 (학부생이 선택한학과) 과 같은 변수를 고려하십시오 . 순서가없고 범주 형이지만 수십 가지의 고유 한 수준을 가질 수 있습니다. 회귀 모델에서 메이저를 예측 변수로 사용하고 싶다고 가정 해 봅시다. 모델링을 …

3
PCA가 부울 (이진) 데이터 유형에 대해 작동합니까?
고차 시스템의 차원을 줄이고 바람직하게는 2 차원 또는 1 차원 필드에서 대부분의 공분산을 포착하고 싶습니다. 나는 이것이 주성분 분석을 통해 이루어질 수 있다는 것을 알고 있으며 많은 시나리오에서 PCA를 사용했습니다. 그러나 부울 데이터 유형에는 사용하지 않았 으며이 세트로 PCA를 수행하는 것이 의미가 있는지 궁금했습니다. 예를 들어, 질적이거나 설명적인 척도가 있다고 …

2
t-SNE는 언제 오도합니까?
저자 중 한 사람으로부터 인용 : t- 분산 스토캐스틱 이웃 임베딩 (t-SNE)은 차원 축소를위한 ( 상을 수상한 ) 기법으로, 특히 고차원 데이터 세트의 시각화에 매우 적합합니다. 꽤 들리지만 저자가 말하는 것입니다. 저자의 또 다른 인용문 (앞서 언급 한 경쟁) : 이 경쟁에서 무엇을 빼앗 았습니까? 데이터에 대한 예측 변수를 교육하기 …

3
t-SNE가 군집화 또는 분류를위한 차원 축소 기술로 사용되지 않는 이유는 무엇입니까?
최근 과제에서 MNIST 숫자에 PCA를 사용하여 크기를 64 (8 x 8 이미지)에서 2로 줄이라는 지시를 받았습니다. 그런 다음 가우스 혼합 모델을 사용하여 숫자를 클러스터링해야했습니다. 2 개의 주요 구성 요소 만 사용하는 PCA는 별개의 군집을 생성하지 않으므로 모델이 유용한 그룹화를 생성 할 수 없습니다. 그러나 2 개의 구성 요소와 함께 t-SNE를 …

1
Factor Analysis / PCA에서 회전을 수행 한 이유와 적절한 회전을 선택하는 직관적 인 이유는 무엇입니까?
내 질문 요인 분석 (또는 PCA의 구성 요소)에서 요인의 회전을 수행하는 직관적 인 이유는 무엇입니까? 변수가 최상위 구성 요소 (또는 요인)에 거의 똑같이로드되면 구성 요소를 구별하기가 어렵다는 것을 이해합니다. 따라서이 경우 회전을 사용하여 구성 요소를 더 잘 차별화 할 수 있습니다. 이 올바른지? 회전을하면 어떤 결과가 발생합니까? 이것은 어떤 영향을 …

1
PCA가 k- 평균 군집 분석에 어떻게 도움이됩니까?
배경 : 도시의 주거 지역을 주택 단위 밀도, 인구 밀도, 녹지 면적, 주택 가격, 학교 수 / 보건소 / 보육 센터 등 사회 경제적 특성에 따라 그룹으로 분류하고 싶습니다. 주거 지역을 몇 개의 다른 그룹으로 나눌 수 있는지, 그리고 그들의 독특한 특징은 무엇인지 이해하고 싶습니다. 이 정보는 도시 계획을 용이하게 …

1
큰 희소 행렬의 차원 축소 (SVD 또는 PCA)
/ 편집 : 추가 후속 조치 irlba :: prcomp_irlba를 사용할 수 있습니다 / 편집 : 내 자신의 게시물에 후속. irlba이제 "center"및 "scale"인수를 사용하여이를 사용하여 기본 구성 요소를 계산할 수 있습니다. 예 : pc <- M %*% irlba(M, nv=5, nu=0, center=colMeans(M), right_only=TRUE)$v Matrix기계 학습 알고리즘에 사용하려는 크고 작은 기능이 있습니다. library(Matrix) …

5
머신 러닝에서 계층 적 / 중첩 된 데이터를 처리하는 방법
예를 들어 내 문제를 설명하겠습니다. {나이, 성별, 국가, 지역, 도시}와 같은 속성이 주어진 개인의 소득을 예측한다고 가정합니다. 당신은 이와 같은 훈련 데이터 세트를 가지고 있습니다 train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4, 5,5,5,5), CityID=c(1,1,2,3, 4,5,6,6, 7,7,7,8), Age=c(23,48,62,63, 25,41,45,19, 37,41,31,50), Gender=factor(c("M","F","M","F", "M","F","M","F", "F","F","F","M")), Income=c(31,42,71,65, 50,51,101,38, 47,50,55,23)) train CountryID RegionID CityID Age …
29 regression  machine-learning  multilevel-analysis  correlation  dataset  spatial  paired-comparisons  cross-correlation  clustering  aic  bic  dependent-variable  k-means  mean  standard-error  measurement-error  errors-in-variables  regression  multiple-regression  pca  linear-model  dimensionality-reduction  machine-learning  neural-networks  deep-learning  conv-neural-network  computer-vision  clustering  spss  r  weighted-data  wilcoxon-signed-rank  bayesian  hierarchical-bayesian  bugs  stan  distributions  categorical-data  variance  ecology  r  survival  regression  r-squared  descriptive-statistics  cross-section  maximum-likelihood  factor-analysis  likert  r  multiple-imputation  propensity-scores  distributions  t-test  logit  probit  z-test  confidence-interval  poisson-distribution  deep-learning  conv-neural-network  residual-networks  r  survey  wilcoxon-mann-whitney  ranking  kruskal-wallis  bias  loss-functions  frequentist  decision-theory  risk  machine-learning  distributions  normal-distribution  multivariate-analysis  inference  dataset  factor-analysis  survey  multilevel-analysis  clinical-trials 

4
R에서 차원 축소를 수행하는 방법
a (i, j)가 개별 페이지 j를 몇 번 본지를 알려주는 행렬이 있습니다. 27K 개인과 95K 페이지가 있습니다. 나는 종종 함께 볼 수있는 페이지 세트에 해당하는 페이지 공간에 소수의 "치수"또는 "종횡비"를 갖고 싶습니다. 저의 궁극적 인 목표는 개인이 1, 2, 등의 페이지를 얼마나 자주 본지 계산하는 것입니다. 주요 구성 요소 분석 …

2
Python의 scikit-learn LDA가 올바르게 작동하지 않는 이유는 무엇이며 SVD를 통해 LDA를 어떻게 계산합니까?
scikit-learn차원 축소를 위해 기계 학습 라이브러리 (Python) 의 선형 판별 분석 (LDA)을 사용 하고 있었으며 결과에 대해 약간 궁금했습니다. LDA가 무엇을하고 있는지 궁금해서 scikit-learn결과가 예를 들어 수동 접근이나 R에서 수행 된 LDA와 다르게 보일 수 있습니다. 기본적으로 가장 중요한 scikit-plot것은 상관 관계가 있어야하는 두 변수 간의 상관 관계를 보여줍니다. 테스트를 …

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.