나는 몇 개월 전에 코스 트라를 통해 앤드류 응 (Andrew Ng)의 "머신 러닝 (Machine Learning)"과정을 수강했고, 대부분의 수학 / 유도에주의를 기울이지 않고 구현과 실용성에 중점을 두었습니다. 그 이후로 나는 기본 이론의 일부를 연구하기 시작했고 Ng 교수의 강의를 다시 방문했다. 나는 "Regularized Linear Regression"에 대한 강의를 읽고 그가 다음과 같은 비용 함수를 주었다는 것을 보았습니다.
그런 다음이 비용 함수에 대해 다음과 같은 기울기를 제공합니다.
나는 그가 어떻게 다른 사람을 얻는 지에 대해 약간 혼란스러워합니다. 내 파생을 시도했을 때 다음과 같은 결과가 발생했습니다.
차이점은 원래 비용 함수와 Ng 교수 공식의 정규화 매개 변수 사이의 '더하기'부호가 기울기 함수에서 '빼기'부호로 바뀌는 반면 내 결과에서는 일어나지 않습니다.
직관적으로 나는 그것이 부정적인 이유를 이해합니다 : 우리는 기울기 그림으로 세타 매개 변수를 줄이고 있으며 정규화 매개 변수가 과적 합을 피하기 위해 매개 변수를 변경하는 양을 줄이기를 원합니다. 나는이 직관을 뒷받침하는 미적분학에 조금 붙어 있습니다.
참고로, 당신은 갑판을 찾을 수 있습니다 여기에 슬라이드 15, 16,.