이 질문의 제목은 본문에 대한 별도의 질문이므로 두 가지 모두에 개별적으로 답변합니다 (하나는 다른 것으로 이어짐).
- 보이지 않는 문장을 어떻게 추론 할 수 있습니까?
# ... trained model stored in var model
list_of_words = ["this", "is", "a", "new","unseen", "sentence"]
inferred_embedding = model.infer_vector(list_of_words)
어떻게 작동합니까? 원본 용지 당 ( https://cs.stanford.edu/~quocle/paragraph_vector.pdf ) 우리는 두 개의 가중치 행렬은 랜덤 한 초기화 Word2Vec에서 동일한 매트릭스가되는 모든 열 또는 행 각 열 또는 행이 문장 / 문서에 매핑되는 문서 행렬 인 단어 벡터 및 D ∈ R M × R에 매핑됩니다. 훈련하는 동안 고정 창 k 크기 의 softmax 분류기 는 다음과 같은 로그 가능성을 최소화하여 (멀티 클래스 교차 엔트로피)여∈ R엔× PD ∈ R미디엄× R케이
1미디엄∑나는 = 1미디엄1| 디나는|∑t = k| 디난 − 1| −kL O g( p ( 승나는티| 승나는t - k, . . . , w나는t + k, D나는) )
디나는나는t의 시간| 디나는|승나는티티t의 시간나는t의 시간디
여디
- 보이지 않는 문장이 훈련 세트의 문장과 정확히 일치한다고 추론 할 수 있습니까?
디
임의의 시드를 수정해도 작동하지 않을 수 있지만 수렴에 영향을 줄 수있는 다른 변수가 너무 많으므로 https://github.com/RaRe-Technologies/gensim/issues/374에서 첫 번째 답변을 참조하십시오 .
어쨌든 훈련 세트를 반복하고 유추 벡터와 유사성을 비교하면 데이터 세트에서 가장 유사한 레이블을 유추 문장으로 찾을 수 있습니다. 그러나 왜 훈련 세트의 무언가와 정확히 일치하고 싶습니까? 이것이 이러한 문서 임베딩의 목적을위한 정규식은 감독 또는 감독되지 않은 학습 작업 (예 : 분류 및 클러스터링)을위한 것입니다.