기능의 수를 일정하게 고려하면 Barnes-Hut t-SNE 는, 임의 예측 및 PCA는의 복잡성을 매우 큰 데이터 세트에 "적절한"가격을 제공합니다.
반면에 다차원 스케일링에 의존하는 메소드 는 복잡성.
다른 치수 축소 기술이 있습니까 (첫 번째를 보는 것처럼 사소한 기술을 제외하고) 물론 열의 복잡도가 ?
기능의 수를 일정하게 고려하면 Barnes-Hut t-SNE 는, 임의 예측 및 PCA는의 복잡성을 매우 큰 데이터 세트에 "적절한"가격을 제공합니다.
반면에 다차원 스케일링에 의존하는 메소드 는 복잡성.
다른 치수 축소 기술이 있습니까 (첫 번째를 보는 것처럼 사소한 기술을 제외하고) 물론 열의 복잡도가 ?
답변:
흥미로운 옵션은 신경 기반 차원 축소를 탐색하는 것입니다. 치수 감소를 위해 가장 일반적으로 사용되는 네트워크 유형 인 자동 인코더는 다음과 같은 비용으로 교육 할 수 있습니다., 어디 훈련 반복을 나타냅니다 (훈련 데이터와 무관 한 하이퍼 파라미터). 따라서 훈련 복잡성은.
Hinton과 Salakhutdinov [1]의 2006 년 세미나를 살펴보면서 시작할 수 있습니다. 그 이후로 상황이 많이 발전했습니다. 이제 Variational Autoencoders [2]를 통해 대부분의 관심을 얻었지만 기본 개념 (출력 계층에서 입력을 재구성하는 네트워크) 사이에 병목 현상 계층이 유지됩니다. PCA 및 RP와 달리 자동 인코더는 비선형 차원 축소를 수행합니다. 또한, t-SNE와 달리 오토 인코더는 전체 모델을 재교육 할 필요없이 보이지 않는 샘플을 변환 할 수 있습니다.
실용적인 측면 에서이 게시물을 살펴볼 것을 권장합니다.이 게시물 에서는 멋진 라이브러리 Keras를 사용하여 다양한 유형의 자동 인코더를 구현하는 방법에 대해 자세히 설명합니다.
[1] Hinton, GE, & Salakhutdinov, RR (2006). 신경망으로 데이터의 차원을 줄입니다. 과학, 313 (5786), 504-507.
[2] Kingma, DP, & Welling, M. (2013). 변형 베이 자동 인코딩. arXiv 프리 프린트 arXiv : 1312.6114.
이미 언급 한 자동 인코더 외에도 임의의 투영 또는 임의의 부분 공간 방법으로 Johnson-Lindenstrauss의 명예를 악용 할 수 있습니다 . 랜덤 프로젝션은와 차원의 샘플 수 과 목표 치수 cf [1].
약간의 인터넷 검색을 통해 특히 스파 스 데이터 세트에 대한 최신 결과를 얻을 수 있습니다.