«word-embeddings» 태그된 질문

단어 임베딩은 단어가 어휘 크기에 비해 낮은 차원의 공간에서 실수 벡터에 매핑되는 NLP의 언어 모델링 및 특징 학습 기술 세트의 총칭입니다.

2
LSTM을 사용하여 언어 모델링 작업에서 알 수없는 단어 처리
자연어 처리 (NLP) 작업의 경우 단어에 대한 포함으로 word2vec 벡터 를 종종 사용합니다 . 그러나, 단어 2vec 벡터에 의해 포착되지 않는 많은 알 수없는 단어가있을 수 있습니다. 단순히이 단어가 훈련 데이터에서 자주 보이지 않기 때문입니다 (많은 구현에서는 단어를 단어에 추가하기 전에 최소 개수를 사용합니다). 특히 단어의 철자가 틀린 Twitter와 같은 …
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.