«dimensionality-reduction» 태그된 질문

가능한 데이터에 대한 많은 정보를 유지하면서 데이터에 포함 된 많은 변수 또는 차원을 더 적은 수의 차원으로 줄이는 기술을 나타냅니다. 주요 방법으로는 PCA, MDS, Isomap 등이 있습니다. 기술의 두 가지 주요 하위 클래스 : 기능 추출 및 기능 선택.

3
n, p가 둘 다 크면 PCA가 너무 느림 : 대안?
문제 설정 2D로 시각화하려고하는 높은 차원 (4096)의 데이터 포인트 (이미지)가 있습니다. 이를 위해 Karpathy의 다음 예제 코드 와 비슷한 방식으로 t-sne을 사용하고 있습니다. scikit 배우기 문서는 먼저 데이터의 차원을 낮추기 위해 PCA를 사용하는 것이 좋습니다 : 피처 수가 매우 많은 경우 차원 수를 적당한 양 (예 : 50)으로 줄이려면 다른 …

1
매니 폴드 학습과 비선형 차원 축소의 차이점은 무엇입니까?
매니 폴드 학습과 비선형 차원 축소 의 차이점은 무엇입니까 ? 이 두 용어가 서로 바꿔서 사용되는 것을 보았습니다. 예를 들면 다음과 같습니다. http://www.cs.cornell.edu/~kilian/research/manifold/manifold.html : 매니 폴드 학습 (종종 비선형 차원 축소라고도 함)은 특성 특성을 유지하면서 원래 높은 차원 공간에있는 데이터를 낮은 차원 공간에 포함시키는 목표를 추구합니다. http://www.stat.washington.edu/courses/stat539/spring14/Resources/tutorial_nonlin-dim-red.pdf : 이 자습서에서는 …

2
아이스크림 판매 대 온도의이 PCA 플롯 이해
나는 온도 대 아이스크림 판매에 대한 더미 데이터를 가져 와서 K Means (n ​​clusters = 2)를 사용하여 두 범주 (총 더미)를 구별하여 분류했습니다. 이제이 데이터에 대한 주요 구성 요소 분석을 수행하고 있으며 목표는 내가 본 것을 이해하는 것입니다. PCA의 목표는 차원을 줄이고 (이 경우는 아님) 요소의 분산을 보여주는 것입니다. 그러나 …

2
확장 가능한 치수 축소
기능의 수를 일정하게 고려하면 Barnes-Hut t-SNE 는O ( n 로그n )O(nlog⁡n)O(n\log n), 임의 예측 및 PCA는의 복잡성을O ( n )O(n)O(n) 매우 큰 데이터 세트에 "적절한"가격을 제공합니다. 반면에 다차원 스케일링에 의존하는 메소드 는O (엔2)O(n2)O(n^2) 복잡성. 다른 치수 축소 기술이 있습니까 (첫 번째를 보는 것처럼 사소한 기술을 제외하고) 케이kk 물론 열의 복잡도가 …

1
이 자동 인코더 네트워크가 제대로 작동 할 수 없음 (컨볼 루션 및 최대 풀 레이어 사용)
오토 인코더 네트워크는 일반 분류 자 ​​MLP 네트워크보다 훨씬 까다로운 것으로 보입니다. Lasagne를 사용하여 여러 번 시도한 후에 재구성 된 출력에서 ​​얻는 것은 입력 숫자가 실제로 무엇인지에 대한 구분없이 MNIST 데이터베이스 의 모든 이미지의 모호한 평균과 유사 합니다. 내가 선택한 네트워크 구조는 다음 캐스케이드 계층입니다. 입력 레이어 (28x28) 2D 컨볼 …

2
매니 폴드 가정이 올바른지 증명하는 방법은 무엇입니까?
머신 러닝에서 데이터 세트는 부드러운 저 차원 매니 폴드 (매니 폴드 가정)에 있다고 가정하지만 특정 조건이 충족되었다고 가정하면 데이터 세트가 실제로 (대략) 생성된다는 것을 증명할 방법이 있습니까? 저 차원 부드러운 매니 폴드에서? 예를 들어, 데이터 시퀀스 에서 (다른 각도의 얼굴 이미지 시퀀스)와 대응하는 라벨 시퀀스 여기서 (페이스 시퀀스의 각도). 때 …

3
ICA는 먼저 PCA를 실행해야합니까?
ICA (fastICA 패키지 사용)를 적용하기 전에 PCA를 적용한다고 말하는 응용 프로그램 기반 논문을 검토했습니다. 제 질문은 ICA (fastICA)가 PCA를 먼저 실행해야합니까? 이 논문 은 ... 또한 PCA를 사전에 적용하면 (1) 미백 전에 작은 후행 고유 값을 버리고 (2) 페어 단위 종속성을 최소화하여 계산 복잡성을 줄임으로써 ICA 성능을 향상시킬 수 있다고 …

4
PCA와 유사한 비 직교 기술
2D 점 데이터 세트가 있고 데이터에서 모든 로컬 최대 분산의 방향을 감지하려고한다고 가정합니다. PCA는 직교 분해이므로이 상황에서 도움이되지 않으므로 파란색으로 표시된 두 선을 모두 감지 할 수 없으며 출력은 녹색 선으로 표시된 것과 비슷할 수 있습니다. 이 목적에 적합한 기술을 권장하십시오. 감사.

2
PCA 또는 요인 분석에서 치우친 변수
22 개의 변수를 기반으로 SPSS에서 주성분 분석 (인자 분석)을하고 싶습니다. 그러나 내 변수 중 일부가 매우 비뚤어졌습니다 (SPSS에서 계산 된 차이는 2 – 80입니다!). 내 질문은 다음과 같습니다. 비뚤어진 변수를 그대로 유지해야합니까 아니면 주성분 분석에서 변수를 변환 할 수 있습니까? 그렇다면 요인 점수를 어떻게 해석합니까? 어떤 유형의 변환을해야합니까? log10 또는 …


1
차원 축소 / 다차원 스케일링 결과를 해석하는 방법은 무엇입니까?
데이터 구조를 더 잘 이해하기 위해 SVD 분해와 6 차원 데이터 매트릭스의 다차원 스케일링을 모두 수행했습니다. 불행히도 모든 특이 값은 순서가 동일하므로 데이터의 차원이 실제로 6이라는 것을 의미합니다. 그러나 저는 특이 벡터의 값을 해석하고 싶습니다. 예를 들어, 첫 번째는 각 차원에서 (또는) 거의 같거나 (1,1,1,1,1,1)두 번째는 흥미로운 구조 (와 같은 …
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.