대규모 기계 학습은 엔지니어링 문제로 처음 접근했습니다. 예를 들어, 더 큰 훈련 세트를 활용하기 위해 병렬 컴퓨터를 사용하여 알려진 기계 학습 알고리즘을 실행하거나보다 고급의 수치 방법을 적용하여 알려진 기계 학습 목표 기능을 최적화 할 수 있습니다. 이러한 접근법은 통계적 측면을 기계 학습 문제의 계산 측면에서 분리 할 수 있다는 매력적인 가정에 의존합니다.
이 연구는이 가정이 틀렸다는 것을 보여주고, 포기하면 훨씬 더 효과적인 학습 알고리즘으로 이어진다. 새로운 이론적 프레임 워크는 학습 알고리즘에 대한 근사 최적화의 영향을 고려합니다.
분석은 소규모 및 대규모 학습 문제의 경우 뚜렷한 상충 관계를 보여줍니다. 소규모 학습 문제는 일반적인 근사-추정 트레이드 오프에 종속됩니다. 대규모 학습 문제는 기본 최적화 알고리즘의 계산 복잡성을 사소한 방식으로 포함하는 질적으로 다른 상충 관계에 놓여 있습니다. 예를 들어, SGcha (Stochastic Gradient Descent) 알고리즘은 평범한 최적화 알고리즘 인 것처럼 보이지만 대규모 학습 문제에서 매우 우수한 성능을 발휘합니다.