최소 제곱과 선형 회귀의 차이점은 무엇입니까? 같은 것입니까?
최소 제곱과 선형 회귀의 차이점은 무엇입니까? 같은 것입니까?
답변:
선형 회귀 분석은 독립 변수와 종속 변수 간의 선형 관계를 가정합니다. 모델이 어떻게 장착되는지 알려주지 않습니다. 최소 제곱 피팅은 단순히 가능성 중 하나입니다. 선형 모델을 훈련시키는 다른 방법은 주석에 있습니다.
비선형 최소 제곱이 일반적입니다 ( https://en.wikipedia.org/wiki/Non-linear_least_squares ). 예를 들어, 인기있는 Levenberg–Marquardt 알고리즘은 다음과 같은 문제를 해결합니다.
최소 제곱 최적화이지만 모형이 선형이 아닙니다.
그들은 같은 것이 아닙니다 .
@Student T의 정답 외에도 최소 제곱은 최적화 문제의 잠재적 손실 함수이며 선형 회귀는 최적화 문제라는 점을 강조하고 싶습니다.
특정 데이터 집합이 주어지면 선형 회귀는 변수 간의 연결을 설명하는 가장 좋은 선형 함수를 찾는 데 사용됩니다.
이 경우 가능한 "최상의"는 손실 함수에 의해 결정되며 선형 함수의 예측 된 값을 데이터 세트의 실제 값과 비교합니다. 최소 제곱은 가능한 손실 함수입니다.
최소 제곱 의 Wikipedia 기사는 오른쪽에 그림과 같이 선형 회귀 이외의 다른 문제에 대해 최소 제곱을 사용하여 표시합니다.
Wikipedia 기사의 다음 gif는 최소 제곱을 사용하여 데이터 세트에 적합한 여러 가지 다항식 함수를 보여줍니다. 그중 하나만 선형입니다 (다항식 1). 이것은 독일 위키 백과 기사 에서 주제 로 가져 왔습니다 .