«naive-bayes» 태그된 질문

순진한 베이 즈 분류기는 강력한 독립 가정으로 베이 즈 정리를 적용한 간단한 확률 론적 분류기입니다. 기본 확률 모델에 대한보다 상세한 용어는 "독립적 특징 모델"입니다.

1
순진 베이 분류 기가 0-1 손실에 최적 인 이유는 무엇입니까?
Naive Bayes 분류기는 클래스 멤버쉽 의 사후 를 최대화하여 항목 를 클래스 할당하는 분류기이며 항목 의 기능이 독립적이라고 가정합니다.xxxCCCP(C|x)P(C|x)P(C|x) 0-1 손실은 모든 잘못된 분류에 "1"의 손실과 "0"의 손실을 올바른 분류에 할당하는 손실입니다. 나는 종종 (1) "Naive Bayes"분류 기가 0-1 손실에 최적이라는 것을 읽습니다. 왜 이것이 사실입니까? (1) 하나의 예시적인 출처 …

3
Naive Bayes에는 확률이 있습니다. 단어를 두 번 세어야합니까?
내 Naive Bayes bag o 'words 모델을 프로토 타이핑하고 있으며, 기능 확률 계산에 대한 질문이있었습니다. 두 가지 클래스가 있다고 가정 해 봅시다. 모든 사람들이 사용하는 스팸이기 때문에 스팸과 스팸 아님을 사용합니다. 그리고 "viagra"라는 단어를 예로 들어 봅시다. 트레이닝 세트에 10 개의 이메일, 5 개의 스팸 및 5 개의 비 스팸이 …


2
Akinator.com 및 Naive Bayes 분류기
맥락 : 저는 유니 코스 통계에서 (반반 잊혀진) 경험이있는 프로그래머입니다. 최근에 나는 http://akinator.com을 우연히 발견 하고 실패하기 위해 시간을 보냈습니다. 누가 아니 었어? :) 나는 그것이 작동하는 방법을 찾기로 결정했습니다. 인터넷 검색 및 관련 블로그 게시물을 읽은 후 결과 혼합에 내 제한된 지식을 추가 한 후 다음 모델을 생각해 냈습니다 …

2
순진한 베이지안 분류기로 어떤 종류의 것을 예측할 수 있습니까?
나는 통계 초보자입니다 (단 하나의 대학 과정 만 수강), 프로그래밍에 대한 배경 지식이 있습니다. 방금 Ruby 용 베이지안 분류기 라이브러리를 가지고 놀기 시작했고 분석 할 아이디어를 찾고 있습니다. 지금은 트윗 분류로 엉망이지만 아이디어가 있습니까? 더 중요한 것은 어떤 유형의 데이터가 베이지안 분류를 순진하게 만드는지 알 수있는 방법입니다. 감사.

1
상호 배타적이지 않은 카테고리를 분류 할 수있는 딥 러닝 모델
예 : 직업 설명에 "영국의 Java Senior Engineer"문장이 있습니다. 나는 2 개 종류로 예측하는 깊은 학습 모델을 사용하려면 : English 와 IT jobs. 기존 분류 모델을 사용하는 경우 softmax마지막 레이어에서 함수가있는 레이블 하나만 예측할 수 있습니다 . 따라서 두 모델 신경망을 사용하여 두 범주 모두에서 "예"/ "아니오"를 예측할 수 있지만 …
9 machine-learning  deep-learning  natural-language  tensorflow  sampling  distance  non-independent  application  regression  machine-learning  logistic  mixed-model  control-group  crossover  r  multivariate-analysis  ecology  procrustes-analysis  vegan  regression  hypothesis-testing  interpretation  chi-squared  bootstrap  r  bioinformatics  bayesian  exponential  beta-distribution  bernoulli-distribution  conjugate-prior  distributions  bayesian  prior  beta-distribution  covariance  naive-bayes  smoothing  laplace-smoothing  distributions  data-visualization  regression  probit  penalized  estimation  unbiased-estimator  fisher-information  unbalanced-classes  bayesian  model-selection  aic  multiple-regression  cross-validation  regression-coefficients  nonlinear-regression  standardization  naive-bayes  trend  machine-learning  clustering  unsupervised-learning  wilcoxon-mann-whitney  z-score  econometrics  generalized-moments  method-of-moments  machine-learning  conv-neural-network  image-processing  ocr  machine-learning  neural-networks  conv-neural-network  tensorflow  r  logistic  scoring-rules  probability  self-study  pdf  cdf  classification  svm  resampling  forecasting  rms  volatility-forecasting  diebold-mariano  neural-networks  prediction-interval  uncertainty 

1
나이브 베이 즈가 점점 인기를 얻고 있습니까? 왜?
이것은이다 추세가 구글 2004년 1월에서 2017년 4월까지 (에서 "나이브 베이 즈"문구를 확보의 결과 링크 ). 이 그림에 따르면, 2017 년 4 월의 "Naive Bayes"에 대한 검색 비율은 전체 기간의 최대 값보다 약 % 25 높습니다. 이것이이 단순하고 오래된 방법이 더 많은 주목을 받고 있음을 의미합니까? 왜? Sycorax의 의견에 따르면 합리적인 …

1
대수 분류기, 자세한 정보?
대수 분류기 (고급 교차 검증, 온라인 교육 및 병렬 교육에 대한 일반적인 접근 방식)를 읽었 으며 파생 알고리즘의 성능에 놀랐습니다. 그러나 Naive Bayes (및 GBM) 외에 프레임 워크에 적용되는 알고리즘이 많지 않은 것 같습니다. 다른 분류기에서 작업 한 다른 논문이 있습니까? (SVM, 랜덤 포레스트)

2
데이터에 대한 ROC 곡선 계산
그래서, 나는 16 개의 시험을 가지고 있는데, 여기에서 Hamming Distance를 사용하여 생체 특성으로부터 사람을 인증하려고합니다. 임계 값이 3.5로 설정되었습니다. 내 데이터는 다음과 같으며 1 번 시험 만 참 긍정입니다. Trial Hamming Distance 1 0.34 2 0.37 3 0.34 4 0.29 5 0.55 6 0.47 7 0.47 8 0.32 9 0.39 …
9 mathematical-statistics  roc  classification  cross-validation  pac-learning  r  anova  survival  hazard  machine-learning  data-mining  hypothesis-testing  regression  random-variable  non-independent  normal-distribution  approximation  central-limit-theorem  interpolation  splines  distributions  kernel-smoothing  r  data-visualization  ggplot2  distributions  binomial  random-variable  poisson-distribution  simulation  kalman-filter  regression  lasso  regularization  lme4-nlme  model-selection  aic  r  mcmc  dlm  particle-filter  r  panel-data  multilevel-analysis  model-selection  entropy  graphical-model  r  distributions  quantiles  qq-plot  svm  matlab  regression  lasso  regularization  entropy  inference  r  distributions  dataset  algorithms  matrix-decomposition  regression  modeling  interaction  regularization  expected-value  exponential  gamma-distribution  mcmc  gibbs  probability  self-study  normality-assumption  naive-bayes  bayes-optimal-classifier  standard-deviation  classification  optimization  control-chart  engineering-statistics  regression  lasso  regularization  regression  references  lasso  regularization  elastic-net  r  distributions  aggregation  clustering  algorithms  regression  correlation  modeling  distributions  time-series  standard-deviation  goodness-of-fit  hypothesis-testing  statistical-significance  sample  binary-data  estimation  random-variable  interpolation  distributions  probability  chi-squared  predictor  outliers  regression  modeling  interaction 
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.