오토 인코더와 t-SNE의 차이점은 무엇입니까?


답변:


8

둘 다 데이터의 낮은 차원 삽입을 찾으려고합니다. 그러나 다른 최소화 문제가 있습니다. 보다 구체적으로, 자동 인코더는 재구성 오류를 최소화하려고 시도하는 반면, t-SNE는 더 낮은 차원 공간을 찾고 동시에 주변 거리를 유지하려고 시도합니다. 이 속성의 결과로 t-SNE가 일반적으로 플롯 및 시각화에 선호됩니다.


이런 의미에서, 낮은 치수가 3D 이상일 때 자동 인코더가 더 낮은 치수를 찾는 것이 더 낫다는 것을 의미합니까? (낮은 치수가 큰지 가정하기 때문에 t-SNE가 제대로 작동하지 않을 수 있습니까?)
RockTheStar

2
작업에 따라 여러 유형의 자동 인코더 (스파 스, 변형, 스택, 컨볼 루션 등)가 있습니다. 재구성 오류에 따라 저 차원 임베딩을 발견하는 데 매우 효율적일 수 있습니다. 따라서 귀하의 작업이 최적의 낮은 차원 공간 (2D조차도)을 찾는 것이라면 작업에 적합한 자동 인코더를 선택하는 것이 좋습니다. 시각화를해야하는 경우 t-SNE가 선택 될 수 있습니다. 주변 거리 보존으로 인해 더 나은 시각화가 가능합니다.
Yannis Assael 1

2

[자동 엔코더]는 주로 잠재 공간에서 데이터의 분산을 최대화하는 데 중점을 둡니다. 그 결과 자동 엔코더는 잠재 학습자보다 잠재 공간에서 데이터의 로컬 구조를 유지하는 데 성공하지 못합니다 ...

"로컬 구조를 보존하여 파라 메트릭 임베딩 학습"에서, Maaten 데르 로렌스 반 ( https://lvdmaaten.github.io/publications/papers/AISTATS_2009.pdf )


이것은 "t-SNE 용지"가 아닙니다. 표준 t-SNE는 비모수 적입니다.
amoeba

1
이에 대한 귀하의 의견에 감사드립니다. 게시물을 수정했습니다.
128525

1

Autoencoder와 t-SNE는 [1]에 설명 된 것처럼 고차원 데이터에서 더 나은 시각화를 위해 함께 사용될 수 있습니다.

특히 2D 시각화의 경우 t-SNE가 아마도 가장 좋은 알고리즘 일 수 있지만 일반적으로 비교적 낮은 차원의 데이터가 필요합니다. 따라서 고차원 데이터에서 유사성 관계를 시각화하기위한 좋은 전략은 자동 인코더를 사용하여 데이터를 저 차원 공간 (예 : 32 차원)으로 압축 한 다음 t-SNE를 사용하여 압축 된 데이터를 2D 평면에 매핑하는 것입니다. .


[1] https://blog.keras.io/building-autoencoders-in-keras.html


0

Autoencoder는 이전 데이터를 2- 노름 의미로 보존하도록 설계되었으며, 데이터가 속도 인 경우 데이터의 운동 에너지를 보존하는 것으로 생각할 수 있습니다.

t-SNE는 대칭이 아닌 KL 발산을 사용하지만, t-SNE는 로컬 구조에 더 집중할 것이며, 자동 인코더는 전체적인 L2 오류를 작게 유지하는 경향이 있습니다.

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.