«naive-bayes» 태그된 질문

순진한 베이 즈 분류기는 강력한 독립 가정으로 베이 즈 정리를 적용한 간단한 확률 론적 분류기입니다. 기본 확률 모델에 대한보다 상세한 용어는 "독립적 특징 모델"입니다.

3
예 : 이진 결과에 glmnet을 사용하는 LASSO 회귀
관심있는 결과가 이분법 인 LASSO Regressionglmnet 과 함께 사용하기 시작했습니다 . 아래에 작은 모의 데이터 프레임을 만들었습니다. age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) bmi_p <- c(0.86, 0.45, 0.99, 0.84, 0.85, 0.67, 0.91, 0.29, 0.88) …
77 r  self-study  lasso  regression  interpretation  anova  statistical-significance  survey  conditional-probability  independence  naive-bayes  graphical-model  r  time-series  forecasting  arima  r  forecasting  exponential-smoothing  bootstrap  outliers  r  regression  poisson-distribution  zero-inflation  genetic-algorithms  machine-learning  feature-selection  cart  categorical-data  interpretation  descriptive-statistics  variance  multivariate-analysis  covariance-matrix  r  data-visualization  generalized-linear-model  binomial  proportion  pca  matlab  svd  time-series  correlation  spss  arima  chi-squared  curve-fitting  text-mining  zipf  probability  categorical-data  distance  group-differences  bhattacharyya  regression  variance  mean  data-visualization  variance  clustering  r  standard-error  association-measure  somers-d  normal-distribution  integral  numerical-integration  bayesian  clustering  python  pymc  nonparametric-bayes  machine-learning  svm  kernel-trick  hyperparameter  poisson-distribution  mean  continuous-data  univariate  missing-data  dag  python  likelihood  dirichlet-distribution  r  anova  hypothesis-testing  statistical-significance  p-value  rating  data-imputation  censoring  threshold 

3
나이브 베이 이해
에서 StatSoft, 주식 회사 (2013), 전자 통계 교과서 , "나이브 베이 즈 분류" : Naïve Bayes Classification의 개념을 설명하려면 위 그림에 표시된 예를 고려하십시오. 표시된대로 오브젝트는 녹색 또는 빨간색으로 분류 될 수 있습니다. 내 임무는 새로운 사례가 도착할 때 분류하는 것입니다. 즉, 현재 종료되는 객체를 기준으로 어떤 클래스 레이블이 속하는지 …

3
순진한 베이지안 분류 기가 왜 그렇게 잘 작동합니까?
Naive Bayes 분류기는 분류 문제에 널리 사용됩니다. 다음과 같은 여러 가지 이유가 있습니다. "Zeitgeist"-약 10 년 전에 스팸 필터가 성공한 후 널리 인식 쓰기 쉽다 분류기 모델은 빠른 빌드 모델을 다시 만들지 않고도 새로운 교육 데이터로 모델을 수정할 수 있습니다 그러나 이들은 '순진'합니다. 즉, 기능이 독립적이라고 가정합니다. 이는 최대 엔트로피 …

3
Naive Bayes는 어떻게 선형 분류기입니까?
나는 다른 스레드 를 보았지만 대답이 실제 질문을 만족시키지 않았다고 생각합니다. 내가 계속 읽은 것은 Naive Bayes가 로그 확률 데모를 사용하여 선형 분류 자 ​​(예 : here ) (선형 결정 경계를 그립니다)라는 것입니다. 그러나 두 개의 가우시안 구름을 시뮬레이션하고 결정 경계를 설정하고 결과를 얻었습니다 (naiveBayes ()를 사용하여 r의 라이브러리 e1071) …

2
순진 베이와 다항식 순진 베이의 차이점
전에 Naive Bayes 분류기를 다루었습니다 . 최근 에 Multinomial Naive Bayes 에 대해 읽었습니다 . 또한 사후 확률 = (이전 * 가능성) / (증거) . Naive Bayes와 Multinomial Naive Bayes 사이에서 찾은 유일한 주요 차이점 (이 분류자를 프로그래밍하는 동안)은 나이브 베이 즈 다항식은 우도로 계산 단어 / 토큰 카운트 (랜덤 …

7
Naive Bayes에서 테스트 세트에 알 수없는 단어가있을 때 Laplace 스무딩을 방해하는 이유는 무엇입니까?
나는 오늘 Naive Bayes Classification을 읽고있었습니다. 매개 변수 추정 이라는 제목 아래 에 1 스무딩을 추가했습니다 . 하자 ccc (같은 양 또는 음 등) 클래스를 참조하고,하자 www 토큰 또는 단어를 참조하십시오. P(w|c)P(w|c)P(w|c) 의 최대 우도 추정값 은 c o u n t ( w , c )c o u n …

3
수업 확률을 예측하기위한 머신 러닝
예제가 두 클래스 중 하나에 속하는 확률을 출력하는 분류자를 찾고 있습니다. 나는 로지스틱 회귀와 순진한 베이 즈에 대해 알고 있지만 비슷한 방식으로 작동하는 다른 사람들에 대해 말해 줄 수 있습니까? 즉, 예제가 속한 클래스가 아니라 예제가 특정 클래스에 적합 할 확률을 예측하는 분류 자입니까? 로지스틱 회귀 및 순진한 베이를 포함하여 …


3
SVM 외에 어떤 알고리즘에 기능 확장이 필요합니까?
RandomForest, DecisionTrees, NaiveBayes, SVM (커널 = 선형 및 rbf), KNN, LDA 및 XGBoost와 같은 많은 알고리즘을 사용하고 있습니다. SVM을 제외하고는 모두 매우 빠릅니다. 그때는 기능 확장이 더 빨리 작동해야한다는 것을 알게되었습니다. 그런 다음 다른 알고리즘에 대해서도 동일한 작업을 수행해야하는지 궁금해지기 시작했습니다.

3
Kneser-Ney 평활화에서 보이지 않는 단어는 어떻게 처리됩니까?
내가 본 것에서, (2 차) Kneser-Ney 평활화 공식은 어떤 식 으로든 또는 다른 식으로 주어집니다. P2KN(wn|wn−1)=max{C(wn−1,wn)−D,0}∑w′C(wn−1,w′)+λ(wn−1)×Pcont(wn)PKN2(wn|wn−1)=max{C(wn−1,wn)−D,0}∑w′C(wn−1,w′)+λ(wn−1)×Pcont(wn) \begin{align} P^2_{KN}(w_n|w_{n-1}) &= \frac{\max \left\{ C\left(w_{n-1}, w_n\right) - D, 0\right\}}{\sum_{w'} C\left(w_{n-1}, w'\right)} + \lambda(w_{n-1}) \times P_{cont}(w_n) \end{align} 정규화 인자 λ(wn−1)λ(wn−1)\lambda(w_{n-1}) 로 주어 λ(wn−1)=D∑w′C(wn−1,w′)×N1+(wn−1∙)λ(wn−1)=D∑w′C(wn−1,w′)×N1+(wn−1∙) \begin{align} \lambda(w_{n-1}) &= \frac{D}{\sum_{w'} C\left(w_{n-1}, w'\right)} \times N_{1+}\left(w_{n-1}\bullet\right) \end{align} 단어 w_n …

3
왜 베이지안 다항식 Naive Bayes 분류기를 사용하지 않는 이유는 무엇입니까?
따라서 (감독되지 않은) 텍스트 모델링에서 Latent Dirichlet Allocation (LDA)은 베이지안 버전의 확률 적 잠재 성 의미 분석 (PLSA)입니다. 기본적으로 LDA = PLSA + Dirichlet는 매개 변수보다 우선합니다. LDA는 이제 참조 알고리즘이며 다양한 패키지로 구현되는 반면 PLSA는 더 이상 사용해서는 안됩니다. 그러나 (감독 된) 텍스트 분류에서 다항식 Naive Bayes 분류기에 대해 …

2
기능 수가 증가하면 정확도가 떨어지지 만 pre / recall이 증가합니다.
저는 머신 러닝을 처음 사용합니다. 현재 NLTK와 python을 사용하여 작은 클래스의 텍스트를 양, 음 또는 중립으로 분류하기 위해 Naive Bayes (NB) 분류기를 사용하고 있습니다. 300,000 개의 인스턴스 (16,924 긍정 7,477 네거티브 및 275,599 개의 중립)로 구성된 데이터 세트를 사용하여 일부 테스트를 수행 한 후 피처 수를 늘리면 정확도는 떨어지지 만 …

5
1 클래스 텍스트 분류는 어떻게합니까?
텍스트 분류 문제를 해결해야합니다. 웹 크롤러는 특정 도메인의 웹 페이지를 크롤링하며 각 웹 페이지에 대해 특정 클래스에만 속하는지 여부를 확인하고 싶습니다. 즉,이 클래스를 Positive 호출하면 크롤링 된 각 웹 페이지는 Positive 클래스 또는 Non-Positive 클래스에 속합니다 . Positive 클래스에 대한 대규모 교육용 웹 페이지가 이미 있습니다 . 그러나 가능한 비 …

2
Naive Bayes는 연속 변수와 어떻게 작동합니까?
내 (매우 기본적인) 이해를 위해 Naive Bayes는 훈련 데이터에서 각 기능의 클래스 빈도를 기반으로 확률을 추정합니다. 그러나 연속 변수의 빈도를 어떻게 계산합니까? 그리고 예측을 수행 할 때 훈련 세트에서 동일한 관측치 값을 가질 수없는 새로운 관측치를 어떻게 분류합니까? 거리 측정을 사용하거나 1NN을 찾습니까?

3
Naive Bayes에서 log-sum-exp 트릭이 작동하는 예
나는 많은 곳에서 log-sum-exp 트릭에 대해 읽었 지만 (예를 들어 here 와 here ) 이것이 Naive Bayes 분류기에 어떻게 적용되는지에 대한 예를 보지 못했습니다 (예 : 개별 기능과 두 클래스) 이 트릭을 사용하여 수치 언더 플로 문제를 어떻게 정확하게 피할 수 있습니까?

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.