예측 변수 (기본 학습자 (예 : 그루터기 등)를 통한 처리)와 부스팅의 손실 함수 처리를 혼동하지 마십시오. AdaBoost는 오 분류 오류를 최소화하기 위해 기본 학습자의 조합을 찾는 것으로 생각할 수 있지만 인용 한 "Additive Logistic Regression" 논문은 지수 손실 함수를 최소화하기 위해 공식화 할 수 있음을 보여줍니다. 이러한 통찰력은 그래디언트 부스팅을 통해 차별화 가능한 손실 기능을 최소화하는 광범위한 기계 학습 문제에 대한 부스팅 접근 방식을 열었습니다 . 각 단계에 맞는 잔차 는 손실 함수의 기울기에서 계산 된 의사 잔차 입니다. 예측 변수가 이진 스텀프로 모델링 되더라도 모형의 출력이 이진 선택 일 필요는 없습니다.
또 다른 대답에서 알 수 있듯이 선형 기본 학습자는 부스팅에는 효과가 없지만 선형 기본 학습자는 표준 또는 로지스틱 의미에서 "부스트 회귀"에 필요하지 않습니다. 결정적으로 비선형 그루터기를 느린 기본 학습자로 결합하여 적절한 손실 기능을 최소화 할 수 있습니다. 예측 변수의 계수에서 선형 인 표준 회귀 모델과는 거리가 멀지 만 여전히 "부스트 회귀"라고합니다. 손실 함수는 선형 모델 및 스텀프 또는 트리가 예측 변수 인 "부스트 회귀"모델에 대해 기능적으로 동일 할 수 있습니다. ISLR의 8 장 에서이 점을 분명히 알 수 있습니다.
따라서 부스트 회귀에 해당하는 로지스틱 회귀를 원한다면 기본 학습자보다는 손실 함수에 중점을 두십시오. 그것이 인용 한 논문의 LogitBoost 접근 방식은 인접 해있는 암시적인 지수 손실보다는 로그 손실을 최소화하는 것입니다. Wikipedia AdaBoost 페이지 는이 차이점을 설명합니다.
이 사이트의 많은 참가자들은 로그-홀수 / 확률 기반 예측이 엄격한 예 / 아니오 분류 예측보다 매우 바람직하다고 주장합니다. 전자는 일반적으로 가양 성 예측과가 음성 예측의 추가 비용 사이에 다른 상충 관계를 허용하므로 더 그렇습니다. . 관련 질문에 대한 답변에서 알 수 있듯이 AdaBoost에서 파생 된 강력한 분류기에서 예상 확률을 얻을 수 있지만 LogitBoost는 더 나은 성능을 제공 할 수 있습니다.
분류를위한 그래디언트 부스팅 구현은 기본 확률에 대한 정보를 제공 할 수 있습니다. 예를 들어, 그라디언트 부스팅 에 대한이 페이지 는 sklearn
코드가 로지스틱 회귀에 대한 이탈 손실과 AdaBoost에 대한 지수 손실 사이에서 선택 하는 방법 과 그라디언트 부스팅 모델의 확률을 예측하는 함수를 문서화 하는 방법을 보여줍니다 .