RF (Random Forest)는 Decision Trees (DT)의 앙상블에 의해 생성됩니다. 배깅을 사용하여 각 DT는 다른 데이터 서브 세트에서 학습됩니다. 따라서 새로운 데이터에 대한 의사 결정을 더 추가하여 온라인 임의 포리스트를 구현하는 방법이 있습니까?
예를 들어, 10K 샘플이 있고 10 DT를 훈련시킵니다. 그런 다음 1K 샘플을 얻고 전체 RF를 다시 훈련하는 대신 새로운 DT를 추가합니다. 예측은 이제 베이지안 평균 10 + 1 DT에 의해 수행됩니다.
또한 모든 이전 데이터를 유지하면 새로운 DT를 주로 새 데이터에서 학습 할 수 있습니다. 여기서는 샘플을 선택할 확률이 이미 선택된 횟수에 따라 가중됩니다.