Word2Vec 구현에 iter
매개 변수 가 있습니다gensim
gensim.models.word2vec.Word2Vec (문장 = 없음, 크기 = 100, alpha = 0.025, window = 5, min_count = 5, max_vocab_size = None, sample = 0, seed = 1, workers = 1, min_alpha = 0.0001, sg 클래스 = 1, hs = 1, 음수 = 0, cbow_mean = 0, hashfxn =, iter = 1 , null_word = 0, trim_rule = 없음, sorted_vocab = 1)
에포크의 수를 지정합니다.
iter = 말뭉치에 대한 반복 횟수 (에포크).
코퍼스보다 모델을 개선하는 데 도움이되는지 아는 사람이 있습니까?
가 iter
기본적으로 1로 설정된 이유 가 있습니까? NO를 높이는 데 별다른 영향이 없습니까? 시대의?
No를 설정하는 방법에 대한 과학적 / 실험적 평가가 있습니까? 시대의?
분류 / 회귀 작업과 달리 그리드 검색 방법은 벡터가 감독되지 않은 방식으로 생성되고 목적 함수가 단순히 계층 적 소프트 맥스 또는 네거티브 샘플링에 의한 것이므로 실제로 작동하지 않습니다.
아니오를 단축하는 조기 정지 메커니즘이 있습니까? 벡터가 수렴되면 시대 그리고 계층 적 softmax 또는 음수 샘플링 대물 렌즈가 수렴 될 수 있습니까?