답변:
더 많은 기능과 유연성을 위해와 같은 전용 맞춤법 검사 라이브러리를 사용하십시오 PyEnchant
. 거기의 튜토리얼은 , 또는 당신은 단지에 바로 뛰어들 수있다 :
>>> import enchant
>>> d = enchant.Dict("en_US")
>>> d.check("Hello")
True
>>> d.check("Helo")
False
>>> d.suggest("Helo")
['He lo', 'He-lo', 'Hello', 'Helot', 'Help', 'Halo', 'Hell', 'Held', 'Helm', 'Hero', "He'll"]
>>>
PyEnchant
몇 가지 사전 (en_GB, en_US, de_DE, fr_FR)이 제공되지만 더 많은 언어를 원할 경우 OpenOffice를 사용할 수 있습니다.
이라는 복수형 라이브러리가있는 inflect
것 같지만 그것이 좋은지 전혀 모르겠습니다.
/usr/share/dict/
및 /var/lib/dict
* nix에서 스크립트 설정에서 참조 할 수있다.
WordNet에 모든 영어 단어가 포함되어 있지 않기 때문에 WordNet에서는 제대로 작동하지 않습니다. 마법이없는 NLTK를 기반으로 한 또 다른 가능성은 NLTK의 말 코퍼스입니다.
>>> from nltk.corpus import words
>>> "would" in words.words()
True
>>> "could" in words.words()
True
>>> "should" in words.words()
True
>>> "I" in words.words()
True
>>> "you" in words.words()
True
set(words.words())
NLTK 사용 :
from nltk.corpus import wordnet
if not wordnet.synsets(word_to_test):
#Not an English Word
else:
#English Word
wordnet 설치에 문제가 있거나 다른 방법을 시도 하려면 이 기사를 참조하십시오 .
단어 목록을 찾기 위해 세트를 사용하면 단어 목록이 더 빠르기 때문에 저장합니다.
with open("english_words.txt") as word_file:
english_words = set(word.strip().lower() for word in word_file)
def is_english_word(word):
return word.lower() in english_words
print is_english_word("ham") # should be true if you have a good english_words.txt
질문의 두 번째 부분에 대답하기 위해 복수형은 이미 좋은 단어 목록에 있지만 어떤 이유로 목록에서 특정 단어를 구체적으로 제외하려면 실제로 처리 할 수있는 함수를 작성할 수 있습니다. 그러나 영어 복수형 규칙은 까다로워서 단어 목록에 복수형을 포함시킬 것입니다.
영어 단어 목록을 찾을 수있는 곳은 Googling "영어 단어 목록"으로 여러 단어를 찾았습니다. 다음은 하나입니다. http://www.sil.org/linguistics/wordlists/english/wordlist/wordsEn.txt 이러한 방언 중 하나를 원하는 경우 영국식 또는 미국식 영어를 Google에 사용할 수 있습니다.
english_words
set
list
is_english_word
.xreadlines()
하고 반복 할 수 있습니다 word_file
.
wamerican
과 같이 wbritish
미국과 영국 영어 단어 목록을 제공 /usr/share/dict/*-english
합니다. 패키지 정보는 wordlist.sourceforge.net 을 참조로 제공합니다 .
더 빠른 NLTK 기반 솔루션의 경우 선형 검색을 피하기 위해 단어 세트를 해시 할 수 있습니다.
from nltk.corpus import words as nltk_words
def is_english_word(word):
# creation of this dictionary would be done outside of
# the function because you only need to do it once.
dictionary = dict.fromkeys(nltk_words.words(), None)
try:
x = dictionary[word]
return True
except KeyError:
return False
문제를 해결하기위한 3 가지 패키지 기반 솔루션이 있습니다. 그들은 pyenchant, wordnet 및 corpus (자체 정의 또는 ntlk)입니다. Pychant는 win64에서 py3으로 쉽게 설치할 수 없습니다 . 말뭉치가 완전하지 않기 때문에 Wordnet은 잘 작동하지 않습니다. 그래서 나를 위해 @Sadik 의해 답변 된 솔루션을 선택하고 'set (words.words ())'를 사용하여 속도를 높입니다.
먼저:
pip3 install nltk
python3
import nltk
nltk.download('words')
그때:
from nltk.corpus import words
setofwords = set(words.words())
print("hello" in setofwords)
>>True
pyEnchant.checker SpellChecker로 :
from enchant.checker import SpellChecker
def is_in_english(quote):
d = SpellChecker("en_US")
d.set_text(quote)
errors = [err.word for err in d]
return False if ((len(errors) > 4) or len(quote.split()) < 3) else True
print(is_in_english('“办理美国加州州立大学圣贝纳迪诺分校高仿成绩单Q/V2166384296加州州立大学圣贝纳迪诺分校学历学位认证'))
print(is_in_english('“Two things are infinite: the universe and human stupidity; and I\'m not sure about the universe.”'))
> False
> True
시맨틱 웹 접근 방식의 경우 WordNet에 대해 RDF 형식으로 sparql 쿼리를 실행할 수 있습니다 . 기본적으로 urllib 모듈을 사용하여 GET 요청을 발행하고 결과를 JSON 형식으로 반환하고 파이썬 'json'모듈을 사용하여 구문 분석하십시오. 영어 단어가 아닌 경우 결과가 없습니다.
또 다른 아이디어로 Wiktionary의 API를 쿼리 할 수 있습니다 .
OS에서 Linux 커널을 사용하는 경우 영어 / 미국 사전에서 모든 단어를 가져 오는 간단한 방법이 있습니다. 디렉토리 /usr/share/dict
에 words
파일이 있습니다. 더 구체적 american-english
이고 british-english
파일도 있습니다. 여기에는 해당 언어의 모든 단어가 포함됩니다. 모든 프로그래밍 언어에서이 정보에 액세스 할 수 있으므로 이에 대해 알고 싶을 것입니다.
이제 파이썬 특정 사용자의 경우 아래의 파이썬 코드는 모든 단일 단어의 값을 갖도록 목록 단어를 지정해야합니다.
import re
file = open("/usr/share/dict/words", "r")
words = re.sub("[^\w]", " ", file.read()).split()
def is_word(word):
return word.lower() in words
is_word("tarts") ## Returns true
is_word("jwiefjiojrfiorj") ## Returns False
도움이 되었기를 바랍니다!!!