답변:
기계 학습의 기초 , 메리아 모리, 압신 Rostamizadeh와 아밋 Talwalkar에 의해, 기계 학습 이론에 2,012 책이다.
기계 학습 이해 : 이론에서 알고리즘에 이르기까지 Shai Shalev-Shwartz와 Shai Ben-David는 Mohri / Rostamizadeh / Talwalkar보다 상당히 잘 알려져 있고 약간 더 입문적인 비슷한 2014 년 책입니다. 그것. 온라인으로 무료로 제공됩니다.
신경망 학습 : 이론적 기초 ( Marion Anthony and Peter Bartlett)는 신경망에 관한 것으로 표현 된 ML 이론에 관한 1999 년 책이지만 (내가 그것을 읽지 않은 인상은) 일반적으로 ML 이론에 관한 것이다.
이 세 권의 책은 주로 통계 학습 이론의 주된 관점을 취합니다. 컴퓨터 과학 이론에서 더 많은 영감을 얻은 계산 학습 이론 이라는 흥미로운 관점도 있습니다 . 이 분야의 표준 입문서는 Michael Kearns와 Umesh Vazirani의 1994 년 책인 Computational Learning Theory에 대한 소개 라고 생각합니다 .
또 다른 우수하고 자주 권장되는 무료 책은 Trevor Hastie, Robert Tibshirani 및 Jerome Friedman의 2009 년 통계 학습 요소 제 2 판입니다 . 아마도 다른 것보다 약간 이론적이며 기계 학습자보다 통계학 자의 관점에서 더 많지만 여전히 많은 관심을 가지고 있습니다.
또한 특히 경사 하강에 관심이있는 경우 표준 참조는 Stephen Boyd와 Lieven Vandenberghe의 Convex Optimization 입니다. 이 2004 년 책은 온라인에서 무료로 제공됩니다.
이 책들 중 어떤 것도 현대의 딥 네트워크 이론에 대해 많이 다루지 않습니다. (예를 들어, 대부분의 최적화 이론은 딥 네트워크가 결정적으로 볼록하지 않은 볼록한 경우에 관한 것입니다.)이 이론은 매우 새롭기 때문입니다. 대부분의 결과는 지난 몇 년 동안 만 왔으며 여전히 많은 부분을 파악하고 있습니다. 그러나 지금까지 해당 분야의 기본 이해에 대한 개요로서, 그 중 어느 것도 그 작업이 수행 된 논문을 이해하도록 잘 설정할 것입니다 (Karns / Vazirani 제외). 딥 네트워크에 성공적으로 적용되었는지는 아직 확실하지 않습니다.
기계 학습 : Kevin P. Murphy 의 확률 론적 관점 은 베이지안 관점에서 많은 이론을 설명합니다 (물론 회귀 분석에만 사용했지만 상당히 좋다고 생각했습니다). Google에서 검색하면 전체 도서를 온라인으로 PDF로 볼 수 있습니다.
이 외에도,
신경망 설계 (Martin T. Hagan, Howard B. Demuth, Mark Hudson Beale, Orlando De Jesús)는 신경망의 맥락에서 최적화에 대한 훌륭한 토론을합니다.