답변:
이 소개 가 직관적 인 설명을 제공 할 수 있다는 것을 알았습니다 .
- 그라디언트 부스팅에서 (기존 약한 학습자의) '단점'은 그라디언트 로 식별됩니다 .
- Adaboost에서 '결점'은 높은 데이터 포인트 로 식별됩니다 .
내 이해에 따르면 Adaboost의 기하 급수적 손실은 더 적합하지 않은 샘플에 더 많은 가중치를 부여합니다. 어쨌든 Adaboost는 소개에 제공된 Gradient Boosting의 역사에서 볼 수 있듯이 손실 기능 측면에서 Gradient Boosting의 특별한 경우로 간주됩니다.
- 최초의 성공적인 증폭 알고리즘 인 발명 Adaboost [Freund et al., 1996, Freund and Schapire, 1997]
- 특별한 손실 함수를 갖는 구배 하강으로서 Adaboost를 공식화 [Breiman et al., 1998, Breiman, 1999]
- 다양한 손실 함수를 처리하기 위해 Adaboost를 Gradient Boosting으로 일반화 [Friedman et al., 2000, Friedman, 2001]
@Randel의 탁월한 답변을 바탕으로 다음 요점을 설명하겠습니다.
- Adaboost에서 '결점'은 높은 데이터 포인트로 식별됩니다.
최종 예측은 가중 다수 투표를 통한 모든 분류 자의 예측 조합입니다.
첫 번째 반복 :
두 번째 반복 :
10 회 반복 후 최종 결과
([1.041, 0.875, 0.837, 0.781, 1.04, 0.938 ...
예상대로 첫 번째 반복은 오 분류가 가장 적은 계수이므로 가장 큰 계수를 갖습니다.
그라디언트 부스팅에 대한 직관적 인 설명-완료