2
n- 그램 모델의 난도 및 교차 엔트로피
교차 엔트로피와 난처함의 관계를 이해하려고 노력합니다. 일반적으로 모델 M의 경우 Perplexity (M) = 2 ^ entropy (M) 입니다. 이 관계는 모든 다른 n-gram, 예를 들어 unigram, bigram 등에 적용됩니까?
자연어 처리는 언어 처리, 인공 지능, 기계 학습 및 통계에서 인간 언어 처리 및 이해를 목표로하는 기술 세트입니다.