단어 유사성을 계산하기 위해 Latent Dirichlet Allocation 과 word2vec의 유사점이 무엇인지 이해하려고합니다 .
내가 이해하는 바와 같이, LDA는 단어를 잠재 주제 의 확률 벡터로 매핑하는 반면, word2vec는 실제 숫자 벡터로 매핑합니다 (점별 상호 정보의 특이 값 분해와 관련이 있습니다 . O. Levy, Y. Goldberg, "Neural Word Embedding" "암시 적 행렬 분해" " ; word2vec 는 어떻게 작동합니까? "를 참조하십시오 .
나는 이론적 관계 (하나는 일반화 또는 다른 것으로 간주 될 수 있음)와 실용적 (하나는 사용하지만 다른 하나는 사용하지 않을 때)에 관심이 있습니다.
관련 :