바이어스-분산 트레이드 오프에서, 바이어스를 줄이려고 할 때, 우리는 분산을 보상합니다. 따라서 x = 80이면 y = 100이되지만 x = 81이면 y = -100이됩니다. 이것은 너무 적합 합니다. 분산이 높을 때와 유사하지 않습니다. @ whuber 나는 ovefitting이 높은 분산 때문이라고 가정했습니다. 잔차 분산이 과적 합을 어떻게 초래하는지 이해하지 못합니다. 내가 읽을 수 있도록 종이를 나누어 주시겠습니까?
이것은 종이가 필요하지 않습니다! 직접해볼 수 있습니다. 같은 작은 간단한의 이변 량 데이터 세트를 가져 및 모든 해당 수집 당신이 생산에 관심을. (이 목적은 잔여의 분산을 감소시키기 때문에), 모델 시리즈 맞는 최소 제곱 법을 사용하여 에 대한 . 각 단계는 마지막 단계에서 분산이 0이 될 때까지 분산을 줄입니다. 어느 시점에서, 거의 모든 사람들이 동의 할 것이며, 모델은 데이터를 과적 합하기 시작했습니다. y i y = β 0 + β 1 x + β 2 x 2 + ⋯ + β k x k k = 0 , 1 , … , 9엑스나는= 1 , 2 , … , 10와이나는와이= β0+ β1x + β2엑스2+ ⋯ + β케이엑스케이k = 0 , 1 , … , 9
@Davide 귀하의 의견은 임의의 숲에 대한 진술이 아니라 분산 감소 및 과적 합의 기본 개념에 대한 예를 제시하고 있음을 명시 적으로 언급했음을 나타냅니다. 그러나 첫 번째 주석은 관련이 없기 때문에 불투명합니다 (그리고 내가 읽을 때 올바르지 않습니다). 잔차 분산은 예측 분산이 아닌이 OLS 모델 시퀀스에서 중요합니다. 실제로 모형 적합에 대한 일반적인 질문으로 돌아가서 예측의 분산을 줄이는 것이 목표라면 항상 0을 예측하는 모든 모형이 최적입니다!