내가 알 수있는 한, Kohonen 스타일의 SOM은 2005 년경에 피크를 기록했으며 최근에는 호의를 얻지 못했습니다. 나는 SOM이 다른 방법에 의해 포섭되었거나 다른 방법과 동등한 것으로 입증되었다는 논문을 찾지 못했습니다 (어쨌든 더 높은 차원에서). 그러나 tSNE 및 기타 방법은 오늘날 Wikipedia 또는 SciKit Learn에서 요즘 훨씬 더 많은 잉크를 얻는 것처럼 보이며 SOM은 역사적 방법으로 더 많이 언급됩니다.
(실제로, Wikipedia 기사는 SOM이 경쟁사에 비해 계속해서 특정 이점을 가지고 있음을 나타내지 만 목록에서 가장 짧은 항목이기도합니다. 편집 : gung의 요청에 따라 내가 생각하고있는 기사 중 하나는 다음과 같습니다. 비선형 차원 축소 SOM은 다른 방법보다 그에 대해 적은 글을 썼다는 점에 유의하십시오.
통찰력이 있습니까? 다른 사람이 왜 SOM이 사용되지 않는지 묻고 얼마 전에 참고 자료를 얻었지만 SOM 회의에서 진행 상황을 발견했지만 SVM 또는 tSNE의 상승 등이 팝 머신 학습에서 SOM을 막았는지 궁금했습니다.
편집 2 : 순수한 우연의 일치로 오늘 저녁 비선형 차원 축소에 대한 2008 년 설문 조사를 읽었으며 예를 들어 Isomap (2000), 로컬 선형 임베딩 (LLE) (2000), Hessian LLE (2003), Laplacian 고유 맵 (2003) 및 반정의 임베딩 (SDE) (2004).