«random-forest» 태그된 질문

랜덤 포레스트는 많은 의사 결정 트리의 출력을 결합하는 것을 기반으로하는 기계 학습 방법입니다.

3
훈련 데이터보다 높지 않은 임의의 포리스트 회귀 분석
적어도에서에서 임의의 포리스트 회귀 모델을 작성할 때 R예측 값이 훈련 데이터에 표시된 대상 변수의 최대 값을 절대 초과하지 않는 것으로 나타났습니다. 예를 들어 아래 코드를 참조하십시오. 데이터를 mpg기반으로 예측하는 회귀 모델을 작성 중입니다 mtcars. 나는 OLS와 랜덤 포레스트 모델을 만들고 그것들을 사용하여 mpg연비가 좋은 가상 자동차 를 예측 합니다. OLS는 …
12 r  random-forest 

2
CNN은 왜 FC 레이어로 결론을 내립니까?
내 이해에서 CNN은 두 부분으로 구성됩니다. 특징 추출을 수행하는 첫 번째 부분 (conv / pool layer)과 특징으로부터 분류를 수행하는 두 번째 부분 (fc layer). 완전히 연결된 신경망은 최고의 분류기 (예 : 대부분 SVM 및 RF에 의해 성능이 뛰어남)가 아니기 때문에 왜 CNN이 SVM 또는 RF가 아니라 FC 레이어로 결론을 내립니까?

1
랜덤 포레스트 및 클래스 가중치
한 문장으로 질문 : 누군가 임의의 숲에 대해 좋은 학급 가중치를 결정하는 방법을 알고 있습니까? 설명 : 불균형 데이터 세트로 놀고 있습니다. 긍정적 인 예와 많은 부정적인 예만으로 매우 치우친 데이터 세트에서 모델을 훈련시키기 위해 R패키지 를 사용하고 싶습니다 randomForest. 나는 다른 방법이 있다는 것을 알고 결국에는 그것들을 사용할 것이지만 …
11 r  random-forest 

1
K를 선택하면 왜 교차 검증 점수가 낮아 집니까?
주변에 재생 보스톤 주택 데이터 집합 와 RandomForestRegressor에 (w / 기본 매개 변수) 나는 이상한 뭔가를 발견, scikit 배우기 : 평균 교차 유효성 검사 점수가 감소 내가 내 교차 검증 전략 등이었다 다음 10 이상으로 주름의 수를 증가로 : cv_met = ShuffleSplit(n_splits=k, test_size=1/k) scores = cross_val_score(est, X, y, cv=cv_met) ... …

2
의사 결정 트리 및 회귀-예측 값이 교육 데이터 범위를 벗어날 수 있습니까?
의사 결정 트리와 관련하여 예측 값이 교육 데이터 범위를 벗어날 수 있습니까? 예를 들어, 대상 변수의 학습 데이터 세트 범위가 0-100 인 경우 모델을 생성하고 다른 것으로 적용 할 때 내 값은 -5 일 수 있습니까? 또는 150? 의사 결정 트리 회귀에 대한 나의 이해는 여전히 규칙 기반입니다-왼쪽 / 오른쪽 …

2
R randomForest에서 교체를 통한 샘플링
randomForest 구현은 대체로 샘플링 할 때도 관측치 수를 넘어서 샘플링을 허용하지 않습니다. 왜 이런거야? 잘 작동합니다. rf <- randomForest(Species ~ ., iris, sampsize=c(1, 1, 1), replace=TRUE) rf <- randomForest(Species ~ ., iris, sampsize=3, replace=TRUE) 내가하고 싶은 것 : rf <- randomForest(Species ~ ., iris, sampsize=c(51, 1, 1), replace=TRUE) Error in …

2
의사 결정 트리 공간과 임의 포리스트의 MCMC 샘플링
임의 숲 의 모음입니다 의사 결정 트리 무작위로 (때로는 훈련 데이터를 포기할)와 각 트리를 구축하는 특정 기능을 선택하여 형성했다. 분명히 그들은 잘 배우고 일반화합니다. 의사 결정 트리 공간에 대한 MCMC 샘플링을 수행하거나 임의 포리스트와 비교 한 사람이 있습니까? MCMC를 실행하고 샘플링 된 모든 트리를 저장하는 데 계산 비용이 더 많이들 …

1
비 순차 범주 형 예측 변수의 수준 수 감소
SVM, 임의 포리스트 또는 다른 분류기를 말하는 분류기를 훈련시키고 싶습니다. 데이터 세트의 기능 중 하나는 1000 수준의 범주 형 변수입니다. 이 변수의 레벨 수를 줄이는 가장 좋은 방법은 무엇입니까? R에는 드문 수준을 결합 combine.levels()하는 Hmisc 패키지 에서 호출되는 기능이 있지만 다른 제안을 찾고있었습니다.

2
랜덤 포레스트 모델로부터의 예측을 설명하는 방법이 있습니까?
임의 포리스트 (R의 randomForest 패키지 사용)를 기반으로 예측 분류 모델이 있다고 가정합니다. 최종 사용자가 예측을 생성 할 항목을 지정할 수 있도록 설정하고 분류 가능성을 출력하려고합니다. 지금까지 아무런 문제가 없습니다. 그러나 변수 중요도 그래프와 같은 것을 출력 할 수 있지만 훈련 세트가 아닌 특정 항목에 대해 예측할 수 있으면 유용하고 멋집니다. …

2
포장 된 트리 / 임의의 포리스트 트리가 단일 의사 결정 트리보다 높은 편향을 갖는 이유는 무엇입니까?
완전히 성장한 의사 결정 트리 (즉, 정리되지 않은 의사 결정 트리)를 고려하면 분산이 높고 편차가 적습니다. 배깅 및 랜덤 포레스트는 분산을 줄이고 예측 정확도를 높이기 위해 이러한 높은 분산 모델을 사용하고 집계합니다. 배깅 및 랜덤 포레스트는 모두 부트 스트랩 샘플링을 사용하며 "통계 학습 요소"에 설명 된대로 단일 트리에서 편향을 증가시킵니다. …

1
랜덤 포레스트 알고리즘 단계의 동기
나는 임의의 숲을 구성하는 잘 알고있어하는 방법은있는 그대로 다음과 같습니다 (에서 http://www.stat.berkeley.edu/~breiman/RandomForests/cc_home.htm ) 숲에서 나무를 만들려면 다음을 수행하십시오. N 크기의 샘플을 부트 스트랩합니다. 여기서 N은 트레이닝 세트의 크기입니다. 이 부트 스트랩 샘플을이 트리의 학습 세트로 사용하십시오. 트리의 각 노드에서 무작위로 M 피처의 m을 선택하십시오. 분할 할 m 기능 중 최상의 …

1
R의 각 예측에 대해 회귀에서 신뢰 점수 (임의의 포리스트 / XGBoost 포함)를 계산하는 방법은 무엇입니까?
Random Forests 또는 Extreme Gradient Boosting (XGBoost)과 같은 알고리즘을 사용할 때 각 예측 값에 대한 신뢰 점수를 얻는 방법이 있습니까? 이 신뢰 점수의 범위는 0에서 1까지이며 특정 예측에 대해 내가 얼마나 확신하는지 보여 줍니다 . 인터넷에서 신뢰에 대해 찾은 것에서 일반적으로 간격으로 측정됩니다. 다음은 라이브러리의 confpred함수를 사용하여 계산 된 신뢰 …

1
Random Forest 회귀 또는 분류자를 선택해야합니까?
임의 포리스트에 의해 이진 대상 클래스가있는 데이터 집합을 맞습니다. 파이썬에서는 randomforestclassifier 또는 randomforestregressor로 할 수 있습니다. randomforestclassifier에서 직접 분류를 가져 오거나 randomforestregressor를 먼저 실행하고 예상 점수 세트 (연속 값)를 다시 가져올 수 있습니다. 그런 다음 점수 세트에서 예측 된 클래스를 도출하기위한 컷오프 값을 찾을 수 있습니다. 두 방법 모두 동일한 …


2
그룹화 된 데이터의 임의 포리스트
계층 적 구조를 갖는 고차원 그룹화 된 데이터 (50 개의 숫자 입력 변수)에 임의 포리스트를 사용하고 있습니다. 70 개의 서로 다른 개체의 30 개 위치에서 6 개의 복제로 데이터를 수집하여 12600 개의 데이터 포인트를 생성했으며, 이는 독립적이지 않습니다. oob 오류는 훈련 중에 하나의 개체에서 데이터를 남기고 훈련 된 임의의 포리스트로 …

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.