«cart» 태그된 질문

'분류와 회귀 나무'. CART는 널리 사용되는 머신 러닝 기술이며 랜덤 포레스트 및 그라디언트 부스팅 머신의 일반적인 구현과 같은 기술의 기초를 형성합니다.

2
누가 의사 결정 트리를 발명 했습니까?
의사 결정 트리 데이터 구조와 알고리즘을 누가 발명했는지 추적하려고합니다. 의사 결정 트리 학습 에 관한 Wikipedia 항목 에는 "ID3과 CART가 거의 동시에 (1970 년에서 1980 년 사이) 독립적으로 발명되었다"는 주장이 있습니다. ID3은 나중에 다음과 같이 제시되었습니다. Quinlan, JR 1986. 의사 결정 나무의 유도. 마하 배우다. 1, 1 (1986 년 3 …
24 cart  history 

2
CHAID vs CRT (또는 CART)
약 20 개의 예측 변수가있는 데이터 세트 (몇 가지 범주로 범주화 된)에서 SPSS 를 사용하여 의사 결정 트리 분류를 실행하고 있습니다. CHAID (Chi-squared Automatic Interaction Detection)와 CRT / CART (Classification and Regression Trees)는 다른 트리를 제공합니다. 누구나 CHAID와 CRT의 상대적인 장점을 설명 할 수 있습니까? 한 방법을 다른 방법으로 사용하면 …
23 spss  cart 

5
더 나은 예측 (예 : CV) 성능을 가진 분류 트리의 대안?
더 나은 예측력을 얻을 수있는 분류 트리의 대안을 찾고 있습니다. 내가 다루고있는 데이터에는 설명 변수와 설명 변수 모두에 대한 요소가 있습니다. 이 맥락에서 임의의 숲과 신경망을 발견 한 것을 기억합니다. 전에는 시도한 적이 없지만 그러한 모델링 작업에 대한 또 다른 좋은 후보가 있습니까 (R의 경우)?


2
GINI 점수와 로그 우도 비율의 관계는 무엇입니까
분류 및 회귀 트리를 연구하고 있으며 분할 위치의 측정 방법 중 하나는 GINI 점수입니다. 이제 두 분포간에 동일한 데이터의 우도 비율에 대한 로그가 0 일 때 최적의 분할 위치를 결정하는 데 익숙합니다. 즉, 멤버쉽 가능성도 동일합니다. 내 직감에 따르면 어떤 종류의 연결이 있어야하며 GINI는 수학적 정보 이론 (Shannon)에 좋은 기초를 …

4
의사 결정 트리는 거의 항상 이진 트리입니까?
내가 본 거의 모든 의사 결정 트리 예제는 이진 트리입니다. 이것은 보편적입니까? 대부분의 표준 알고리즘 (C4.5, CART 등)은 이진 트리 만 지원합니까? 내가 수집 한 것에서 CHAID 는 이진 트리로 제한되지 않지만 예외로 보입니다. 자식 중 하나에 대한 양방향 분할과 다른 양방향 분할은 단일 3 방향 분할과 동일하지 않습니다. 이것은 …

4
PCA 공간에 새로운 벡터를 투영하는 방법?
주성분 분석 (PCA)을 수행 한 후 PCA 공간에 새 벡터를 투영하려고합니다 (즉, PCA 좌표계에서 해당 좌표를 찾습니다). 를 사용하여 R 언어로 PCA를 계산했습니다 prcomp. 이제 내 벡터에 PCA 회전 행렬을 곱할 수 있어야합니다. 이 매트릭스의 주요 구성 요소를 행 또는 열로 배열해야합니까?
21 r  pca  r  variance  heteroscedasticity  misspecification  distributions  time-series  data-visualization  modeling  histogram  kolmogorov-smirnov  negative-binomial  likelihood-ratio  econometrics  panel-data  categorical-data  scales  survey  distributions  pdf  histogram  correlation  algorithms  r  gpu  parallel-computing  approximation  mean  median  references  sample-size  normality-assumption  central-limit-theorem  rule-of-thumb  confidence-interval  estimation  mixed-model  psychometrics  random-effects-model  hypothesis-testing  sample-size  dataset  large-data  regression  standard-deviation  variance  approximation  hypothesis-testing  variance  central-limit-theorem  kernel-trick  kernel-smoothing  error  sampling  hypothesis-testing  normality-assumption  philosophical  confidence-interval  modeling  model-selection  experiment-design  hypothesis-testing  statistical-significance  power  asymptotics  information-retrieval  anova  multiple-comparisons  ancova  classification  clustering  factor-analysis  psychometrics  r  sampling  expectation-maximization  markov-process  r  data-visualization  correlation  regression  statistical-significance  degrees-of-freedom  experiment-design  r  regression  curve-fitting  change-point  loess  machine-learning  classification  self-study  monte-carlo  markov-process  references  mathematical-statistics  data-visualization  python  cart  boosting  regression  classification  robust  cart  survey  binomial  psychometrics  likert  psychology  asymptotics  multinomial 

4
비지도 클러스터링을위한 의사 결정 트리와 유사한 알고리즘이 있습니까?
A, B, C, D, E의 5 가지 기능으로 구성된 데이터 집합이 있습니다. 모두 숫자 값입니다. 밀도 기반 클러스터링을 수행하는 대신 의사 결정 트리와 같은 방식으로 데이터를 클러스터링하는 것이 좋습니다. 내가 의미하는 접근 방식은 다음과 같습니다. 알고리즘은 특징 C에 기초하여 데이터를 X 초기 클러스터로 분할 할 수있다. 즉, X 클러스터는 작은 …


3
의사 결정이 선형 모델입니까?
의사 결정 그루터기는 분할이 하나 뿐인 의사 결정 트리입니다. 조각 별 함수로 작성할 수도 있습니다. 예를 들어, 가정 벡터이며, 첫 번째 요소 인 회귀 환경에서, 일부 결정이 될 수 루터x 1 xxxxx1x1x_1xxx f(x)={35x1≤2x1>2f(x)={3x1≤25x1>2f(x)= \begin{cases} 3& x_1\leq 2 \\ 5 & x_1 > 2 \\ \end{cases} 그러나 선형 모델입니까? 로 쓸 …

1
“기능 공간”이란 무엇입니까?
"feature space"정의 예를 들어 SVM에 대해 읽을 때 "피처 공간으로 매핑"에 대해 읽었습니다. CART에 대해 읽을 때 "피처 공간으로 분할"에 대해 읽습니다. 특히 CART의 상황을 이해하고 있지만 누락 된 정의가 있다고 생각합니다. "피처 공간"에 대한 일반적인 정의가 있습니까? SVM 커널 및 / 또는 CART에 대한 통찰력을 제공하는 정의가 있습니까?

3
회귀에 대한 임의의 포리스트가 '진정한 회귀'입니까?
임의 포리스트가 회귀에 사용됩니다. 그러나 내가 이해 한 바에 따르면 각 리프에 평균 목표 값을 할당합니다. 각 나무에는 잎이 제한되어 있으므로 회귀 모델에서 목표를 달성 할 수있는 특정 값만 있습니다. 따라서 (단계 함수와 같은) '이산'회귀가 아니라 '연속적'인 선형 회귀와 같지 않습니까? 이것을 올바르게 이해하고 있습니까? 그렇다면 랜덤 포리스트는 회귀에서 어떤 …

2
딥 러닝 및 의사 결정 트리 및 부스팅 방법
나는 경험적으로나 이론적으로 비교하고 토론하는 논문이나 텍스트를 찾고 있습니다. Random Forests 또는 AdaBoost 및 GentleBoost 와 같은 Boosting and Decision tree 알고리즘 은 의사 결정 트리에 적용됩니다. 와 같은 깊은 학습 방법 제한 볼츠만 기계 , 계층 임시 메모리 , 길쌈 신경망 등, 보다 구체적으로, 속도, 정확성 또는 수렴 측면에서이 …

1
의사 결정 트리의 VC 차원은 무엇입니까?
k가 2 차원으로 분할 된 의사 결정 트리 의 VC 차원 은 무엇입니까 ? 모델이 CART이고 허용되는 분할이 축과 평행하다고 가정 해 봅시다. 따라서 한 번의 분할 에 대해 삼각형으로 3 개의 점을 정렬 한 다음 점의 레이블을 지정하면 완벽한 예측을 얻을 수 있습니다 (예 : 산산조각이 난 점) 그러나 …

1
나무 부스팅 및 배깅 (XGBoost, LightGBM)
나무 를 꾸리 거나 부스팅 하는 아이디어에 대한 많은 블로그 게시물, YouTube 비디오 등이 있습니다. 내 일반적인 이해는 각각에 대한 의사 코드는 다음과 같습니다. 포장 : 표본의 x %와 특징의 y %의 N 개의 랜덤 표본 추출 각 N에 모델 (예 : 의사 결정 트리)을 적합 각 N으로 예측 최종 …

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.