stats.SE에서 비슷한 질문을 참조하십시오 .
에서 증폭 과 같은 알고리즘 에이다 부스트 및 LPBoost를 "약한"학습자가 위키 백과에서 유용 할 더 나은 기회가보다 더 수행에만 결합하는 것으로 알려져있다 :
사용하는 분류기는 약할 수 있지만 (실질적인 오류율을 표시) 성능이 임의적이지 않은 한 (이진 분류의 경우 오류율이 0.5 인 경우) 최종 모델이 향상됩니다. 랜덤 분류기에서 예상되는 것보다 오류율이 높은 분류기조차도 분류기의 최종 선형 조합에서 음의 계수를 가지므로 역함수처럼 행동하기 때문에 유용합니다.
강한 학습자와 반대로 약한 것을 사용하면 어떤 이점이 있습니까? (예 : "강력한"학습 방법으로 부스트하지 않는 이유-우리는 과적 합이 더 쉬운가?
약한 학습자에게 일종의 "최적의"힘이 있습니까? 그리고 이것은 앙상블의 학습자 수와 관련이 있습니까?
이 질문에 대한 답을 뒷받침하는 이론이 있습니까?