그라디언트 부스팅에 대해 배우면서 메서드가 빌드 및 앙상블 모델을 만드는 데 사용하는 "약한 분류기"의 속성과 관련된 제약에 대해 들어 보지 못했습니다. 그러나 선형 회귀를 사용하는 GB의 응용 프로그램을 상상할 수 없었으며 실제로 테스트를 수행했을 때 작동하지 않습니다. 나는 제곱 잔차의 합의 기울기로 가장 표준적인 접근법을 테스트하고 후속 모델을 함께 추가했습니다.
명백한 문제는 첫 번째 모형의 잔차가 더 이상 적합 할 회귀선이없는 방식으로 채워진다는 것입니다. 또 다른 관찰은 후속 선형 회귀 모델의 합계를 단일 회귀 모델로도 표현할 수 있으며 (모든 절편과 해당 계수를 더함) 모델이 어떻게 개선 될 수 있는지 상상할 수 없습니다. 마지막 관측치는 선형 회귀 (가장 일반적인 접근법)는 제곱 잔차의 합을 손실 함수로 사용한다는 것입니다. 이는 GB가 사용하는 것과 같습니다.
또한 학습 속도를 낮추거나 각 반복에 대해 예측 변수의 하위 집합 만 사용하는 것에 대해 생각했지만 결국 단일 모델 표현으로 요약 될 수 있으므로 개선되지 않을 것으로 생각합니다.
내가 여기서 무엇을 놓치고 있습니까? 선형 회귀는 그래디언트 부스팅과 함께 사용하기에 부적절한가요? 선형 회귀는 제곱 잔차의 합을 손실 함수로 사용하기 때문입니까? 약한 예측 변수에 그라디언트 부스팅에 적용 할 수있는 특정 제약 조건이 있습니까?