«stacking» 태그된 질문

7
산업 대 카글 도전. 멋진 모델링보다 더 많은 관측치를 수집하고 더 많은 변수에 액세스하는 것이 더 중요합니까?
나는 제목이 자명 한 희망이다. Kaggle에서 대부분의 승자는 수백 가지 기본 모델과 함께 스태킹을 사용하여 MSE의 몇 가지 추가 비율을 줄이고 정확도를 높입니다 ... 일반적으로 경험상 스태킹과 같은 멋진 모델링은 단순히 더 많은 데이터와 더 많은 기능을 수집하는 것보다 중요합니다 데이터를 위해?

2
이것이 최첨단 회귀 방법론입니까?
저는 오랫동안 Kaggle 대회를 따라 왔으며 많은 우승 전략에는 "빅 3"중 하나 이상을 사용하는 것이 포함되어 있습니다. 포장, 부스팅 및 스태킹. 회귀 분석의 경우 가능한 최상의 회귀 모델을 작성하는 데 초점을 맞추지 않고 (일반화 된) 선형 회귀, 임의 포리스트, KNN, NN 및 SVM 회귀 모델과 같은 다중 회귀 모델을 작성하고 …

5
자동화 된 기계 학습은 꿈입니까?
머신 러닝을 발견하면 다음과 같은 흥미로운 기술이 나타납니다. 자동 같은 기법 튜닝 알고리즘 grid search, 동일한 "유형"의 서로 다른 알고리즘을 조합하여보다 정확한 결과를 얻을 수 있습니다 boosting. 서로 다른 알고리즘 (동일한 유형의 알고리즘은 아님)의 조합을 통해보다 정확한 결과를 얻을 수 있습니다 stacking. 아마 더 많은 것을 여전히 발견해야 할 것입니다 …

1
앙상블 학습 : 왜 모델 스태킹이 효과적입니까?
최근에는 앙상블 학습의 한 형태 인 모델 스태킹에 관심을 가지게되었습니다. 특히 회귀 문제에 대한 장난감 데이터 세트를 약간 실험했습니다. 나는 기본적으로 개별 "레벨 0"회귀자를 구현하고, 각 회귀 분석기의 출력 예측을 "메타 회귀 분석기"가 입력으로 사용할 수있는 새로운 기능으로 저장하고이 메타 회귀기를 이러한 새로운 기능 (수준에서의 예측)에 맞추 었습니다. 회귀 자 …
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.