방금 기계 학습을 시작했으며 지금까지 하나의 변수에 대한 선형 회귀를 다루었습니다.
나는 가설이 있다는 것을 배웠다.
매개 변수 및 θ 1에 대한 올바른 값을 찾기 위해 계산 된 결과와 테스트 데이터의 실제 결과 간의 차이를 최소화하려고합니다. 그래서 우리는 빼기
1 에서 m 까지의 모든 대해 . 따라서이 차이에 대한 합을 계산 한 다음이 합에 1 을 곱하여 평균을 계산합니다. . 여태까지는 그런대로 잘됐다. 결과는 다음과 같습니다.
그러나 이것은 제안 된 것이 아닙니다. 대신에 과정은 차이의 제곱 값을 취하고 1 을 곱하는 것이 좋습니다. . 따라서 공식은 다음과 같습니다.
왜 그런 겁니까? 여기에서 square 함수를 왜 사용하고 왜 1 을 곱합니까? 대신1 ?