다른 설명으로 다음 직관을 고려하십시오.
오류를 최소화 할 때 이러한 오류를 어떻게 처벌 할 것인지 결정해야합니다. 실제로 오류를 처벌하는 가장 간단한 방법은 linearly proportional
페널티 기능 을 사용하는 것 입니다. 이러한 함수를 사용하면 평균과의 각 편차에 비례하는 해당 오류가 발생합니다. 두 번 까지 평균으로부터 그러므로 초래 두 번 페널티.
보다 일반적인 접근 방식은 squared proportional
평균 편차와 해당 페널티 간의 관계 를 고려하는 것 입니다. 이 반드시 있다는 것 더는 당신이 떨어져 평균에서이다, (가) 비례 적으로 더 당신이 처벌됩니다. 이 페널티 함수를 사용하면 특이 치 (평균에서 멀리 떨어져 있음)가 평균 근처의 관측치보다 비례 적으로 더 유익한 것으로 간주 됩니다.
이를 시각화하기 위해 간단히 페널티 함수를 플로팅하면됩니다.
특히 회귀 추정 (예 : OLS)을 고려할 때 다른 페널티 함수는 다른 결과를 산출합니다. linearly proportional
페널티 기능을 사용하면 회귀는 squared proportional
페널티 기능을 사용할 때보 다 이상치에 가중치를 덜 할당 합니다. 따라서 MAD (Median Absolute Deviation)는 보다 강력한 추정기로 알려져 있습니다 . 일반적으로, 강력한 추정기는 대부분의 데이터 요소에 적합하지만 특이 치를 '무시'합니다. 이에 비해 최소 제곱 피팅은 이상 값을 향해 더 많이 당겨집니다. 비교를위한 시각화는 다음과 같습니다.
이제는 OLS가 거의 표준이지만 다른 페널티 기능도 사용 중입니다. 예를 들어, 회귀에 대해 다른 페널티 ( '무게'라고도 함) 기능을 선택할 수 있는 Matlab의 견고성 함수를 살펴볼 수 있습니다. 페널티 기능에는 Andrews, Bisquare, Cauchy, Fair, Huber, Logistic, Ols, talwar 및 welsch가 포함됩니다. 해당 표현은 웹 사이트에서도 찾을 수 있습니다.
나는 그것이 페널티 함수에 대해 조금 더 직관을 얻는 데 도움이되기를 바랍니다 :)
최신 정보
Matlab을 가지고 있다면 Matlab의 robustdemo 를 사용하는 것이 좋습니다. 일반적인 최소 제곱과 강력한 회귀를 비교하기 위해 특별히 빌드되었습니다.
데모를 사용하면 개별 점을 끌어서 일반 최소 제곱과 강력한 회귀 모두에 대한 영향을 즉시 확인할 수 있습니다 (강의 목적에 적합합니다).