리뷰어는 “ Applied Predictive Modeling ”을 검토하면서 다음 과 같이 말합니다 .
통계 학습 (SL) 교육학에 대한 한 가지 비판은 다른 모델링 기법의 평가에서 계산 성능 고려 사항이 없다는 것입니다. SL은 부트 스트랩과 모델의 튜닝 / 테스트를위한 교차 검증에 중점을 두어 계산 집약적입니다. 그에 더하여 bagging 및 boosting과 같은 기술에 포함 된 리샘플링에 큰 데이터 세트에 대한 감독 학습을위한 계산 지옥이 있습니다. 실제로 R의 메모리 제약 조건은 임의 포리스트와 같은 최고 성능의 방법으로 적합 할 수있는 모델 크기에 상당히 심각한 제한을가합니다. SL은 소규모 데이터 세트에 대해 모델 성능을 교정하는 작업을 잘 수행하지만 더 큰 데이터의 성능과 계산 비용을 이해하는 것이 좋습니다.
R의 메모리 제약 조건은 무엇이며 랜덤 포레스트 와 같은 최고 성능의 방법으로 적합 할 수있는 모델 크기에 심각한 제한을 가합 니까?