«boosting» 태그된 질문

약한 예측 모델을 강력한 예측 모델로 결합하는 알고리즘 군. 가장 일반적인 접근 방식을 그라디언트 부스팅이라고하며 가장 일반적으로 사용되는 약한 모델은 분류 / 회귀 트리입니다.

4
반복 횟수가 증가함에 따라 그라디언트 부스팅 기계 정확도가 감소합니다.
caretR 의 패키지를 통해 그라디언트 부스팅 머신 알고리즘을 실험하고 있습니다 . 소규모 대학 입학 데이터 세트를 사용하여 다음 코드를 실행했습니다. library(caret) ### Load admissions dataset. ### mydata <- read.csv("http://www.ats.ucla.edu/stat/data/binary.csv") ### Create yes/no levels for admission. ### mydata$admit_factor[mydata$admit==0] <- "no" mydata$admit_factor[mydata$admit==1] <- "yes" ### Gradient boosting machine algorithm. ### set.seed(123) fitControl …
15 machine-learning  caret  boosting  gbm  hypothesis-testing  t-test  panel-data  psychometrics  intraclass-correlation  generalized-linear-model  categorical-data  binomial  model  intercept  causality  cross-correlation  distributions  ranks  p-value  z-test  sign-test  time-series  references  terminology  cross-correlation  definition  probability  distributions  beta-distribution  inverse-gamma  missing-data  paired-comparisons  paired-data  clustered-standard-errors  cluster-sample  time-series  arima  logistic  binary-data  odds-ratio  medicine  hypothesis-testing  wilcoxon-mann-whitney  unsupervised-learning  hierarchical-clustering  neural-networks  train  clustering  k-means  regression  ordinal-data  change-scores  machine-learning  experiment-design  roc  precision-recall  auc  stata  multilevel-analysis  regression  fitting  nonlinear  jmp  r  data-visualization  gam  gamm4  r  lme4-nlme  many-categories  regression  causality  instrumental-variables  endogeneity  controlling-for-a-variable 

1
랜덤 포레스트의 합법적 인 후속 알고리즘은 무엇입니까?
알고리즘을 증폭시키기 위해, 나는 그것들이 꽤 잘 진화했다고 말할 것입니다. 1995 년 초 AdaBoost가 소개 된 후 얼마 지나지 않아 그라디언트 부스팅 머신 (GBM)이었습니다. 최근, 2015 년경 XGBoost가 도입되었으며, 이는 정확하고 과적 합을 처리하며 여러 개의 Kaggle 경쟁의 승자가되었습니다. 2017 년에 Microsoft에서 LightGBM을 도입했으며 XGBoost에 비해 교육 시간이 크게 단축되었습니다. …

1
언제 AdaBoost를 사용하고 싶습니까?
직장에서 반복적으로 언급 된 AdaBoost 분류기에 대해 들었을 때, 작동 방식과 사용시기에 대해 더 나은 느낌을 얻고 싶었습니다. 계속해서 Google에서 찾은 여러 논문과 자습서를 읽었지만 여전히 이해하기 어려운 분류 기준이 있습니다. 내가 본 대부분의 튜토리얼은 AdaBoost에 대해 많은 분류기 중 가장 가중치가 높은 조합을 찾는 것으로 말합니다. 이것은 나에게 의미가 …


3
R : gbm과 RandomForest의 부분 의존도에서 무엇을 볼 수 있습니까?
실제로, 나는 부분 의존성 플롯으로 보여줄 수있는 것을 이해했다고 생각했지만 매우 간단한 가상의 예를 사용하여 다소 당황했습니다. 다음 코드 청크에서 나는 3 개의 독립 변수 ( a , b , c )와 하나의 종속 변수 ( y )를 생성하고 c 는 y 와 밀접한 선형 관계를 나타내는 반면 a 와 …

1
1 %와 같은 낮은 이벤트 속도의 데이터에 그라디언트 부스팅이 적합합니까?
Enterprise miner를 사용하여 이벤트 속도가 약 1 % 인 데이터 세트에서 그라디언트 향상을 시도하고 있지만 출력을 생성하지 못했습니다. 내 질문은 의사 결정 트리 기반의 접근 방식이므로 그러한 낮은 이벤트에서 그라디언트 부스팅을 사용하는 것이 옳습니까?

3
랜덤 포레스트 및 부스팅 파라 메트릭 또는 비 파라 메트릭입니까?
탁월한 통계 모델링 을 읽음으로써 두 문화 (Breiman 2001) 는 전통적인 통계 모델 (예 : 선형 회귀)과 기계 학습 알고리즘 (예 : 배깅, 랜덤 포레스트, 부스트 트리 ...)의 모든 차이점을 파악할 수 있습니다. Breiman은 데이터 모델 (모수)이 통계를 통해 알려진 자연스럽고 모방 된 공식 모델에 의해 관측이 생성된다는 가정에 근거하기 …



2
의사 결정 트리의 범주 형 기능을 코딩하는 모범 사례?
선형 회귀 분석을 위해 범주 형 피쳐를 코딩 할 때 규칙이 있습니다. 더미의 수는 공선 성을 피하기 위해 총 레벨 수보다 하나 작아야합니다. 의사 결정 트리에 대해 비슷한 규칙이 있습니까 (태그, 부스트)? 파이썬의 표준 연습은 n레벨을 n인형 (sklearns ' OneHotEncoder또는 Pandas' pd.get_dummies) 으로 확장 하여 저에게 최적이 아닌 것처럼 보이기 …

5
자동화 된 기계 학습은 꿈입니까?
머신 러닝을 발견하면 다음과 같은 흥미로운 기술이 나타납니다. 자동 같은 기법 튜닝 알고리즘 grid search, 동일한 "유형"의 서로 다른 알고리즘을 조합하여보다 정확한 결과를 얻을 수 있습니다 boosting. 서로 다른 알고리즘 (동일한 유형의 알고리즘은 아님)의 조합을 통해보다 정확한 결과를 얻을 수 있습니다 stacking. 아마 더 많은 것을 여전히 발견해야 할 것입니다 …

3
부스팅 방법이 특이 치에 민감한 이유
부스팅 방법이 특이 치에 민감하다는 내용의 많은 기사를 찾았지만 그 이유를 설명하는 기사는 없습니다. 내 경험상 특이 치는 기계 학습 알고리즘에 좋지 않지만 부스팅 방법이 특히 민감한 것으로 분류되는 이유는 무엇입니까? 부스트 트리, 랜덤 포레스트, 신경망, SVM 및 로지스틱 회귀 분석과 같은 간단한 회귀 분석 방법은 특이 치에 대한 민감도 …


1
Adaboost에서 의사 결정 그루터기를 약한 학습자로 사용하는 방법은 무엇입니까?
Decision Stump를 사용하여 Adaboost를 구현하고 싶습니다. Adaboost를 반복 할 때마다 데이터 세트의 기능만큼 많은 의사 결정을 내릴 수 있습니까? 예를 들어, 24 개의 기능이있는 데이터 세트가있는 경우 각 반복마다 24 개의 의사 결정 스텀프 분류 기가 있어야합니까? 아니면 무작위로 일부 기능을 선택하고 모든 기능 대신 분류기를 만들어야합니까?

2
분류를 위해 SVM과 함께 Adaboost 사용
Adaboost 는 일련의 약한 분류기의 선형 조합을 사용하여 강력한 분류기를 생성하려고 시도 한다는 것을 알고 있습니다. 그러나 특정 조건 및 사례 에서 Adaboost와 SVM이 (SVM이 강력한 분류기 임에도 불구하고) 조화롭게 작동한다고 제안하는 논문을 읽었습니다 . 건축 및 프로그래밍 관점에서 그것들이 어떻게 작동하는지 파악할 수 없습니다. 나는 그들이 함께 어떻게 작동하는지 …

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.