손실 함수의 2 차 근사 (딥 러닝 북, 7.33)


11

딥 러닝에 관한 Goodfellow (2016)의 저서에서 그는 L2 정규화 ( https://www.deeplearningbook.org/contents/regularization.html 247 쪽) 의 조기 중지와 동등한 내용에 대해 이야기했습니다 .

비용 함수 의 2 차 근사값 은 다음과 같습니다.j

J^(θ)=J(w)+12(ww)TH(ww)

여기서 는 헤 시안 행렬입니다 (식 7.33). 이 중간 용어가 누락 되었습니까? Taylor 확장은 다음과 같아야합니다. H

에프(+ϵ)=에프()+에프'()ϵ+12에프()ϵ2

답변:


15

그들은 최적의 무게에 대해 이야기합니다.

경험적으로 최적 의 가중치 부근에서 2 차 근사로 비용 함수 를 모델링 할 수 있습니다.제이

이 시점에서 첫 번째 미분 값은 0이므로 중간 항은 제외됩니다.

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.