내가 아는 한, 자동 엔코더와 t-SNE는 비선형 차원 축소에 사용됩니다. 차이점은 무엇이며 왜 다른 것을 사용해야합니까?
내가 아는 한, 자동 엔코더와 t-SNE는 비선형 차원 축소에 사용됩니다. 차이점은 무엇이며 왜 다른 것을 사용해야합니까?
답변:
둘 다 데이터의 낮은 차원 삽입을 찾으려고합니다. 그러나 다른 최소화 문제가 있습니다. 보다 구체적으로, 자동 인코더는 재구성 오류를 최소화하려고 시도하는 반면, t-SNE는 더 낮은 차원 공간을 찾고 동시에 주변 거리를 유지하려고 시도합니다. 이 속성의 결과로 t-SNE가 일반적으로 플롯 및 시각화에 선호됩니다.
[자동 엔코더]는 주로 잠재 공간에서 데이터의 분산을 최대화하는 데 중점을 둡니다. 그 결과 자동 엔코더는 잠재 학습자보다 잠재 공간에서 데이터의 로컬 구조를 유지하는 데 성공하지 못합니다 ...
"로컬 구조를 보존하여 파라 메트릭 임베딩 학습"에서, Maaten 데르 로렌스 반 ( https://lvdmaaten.github.io/publications/papers/AISTATS_2009.pdf )
Autoencoder와 t-SNE는 [1]에 설명 된 것처럼 고차원 데이터에서 더 나은 시각화를 위해 함께 사용될 수 있습니다.
특히 2D 시각화의 경우 t-SNE가 아마도 가장 좋은 알고리즘 일 수 있지만 일반적으로 비교적 낮은 차원의 데이터가 필요합니다. 따라서 고차원 데이터에서 유사성 관계를 시각화하기위한 좋은 전략은 자동 인코더를 사용하여 데이터를 저 차원 공간 (예 : 32 차원)으로 압축 한 다음 t-SNE를 사용하여 압축 된 데이터를 2D 평면에 매핑하는 것입니다. .
[1] https://blog.keras.io/building-autoencoders-in-keras.html