확률 적 그라디언트 디센트는 Robbins와 Monro의 논문 인 Stochastic Approximation Method 에서 처음 설명한 Stochastic Approximation이 뒤 따릅니다 . 키퍼와 울포위츠는 그 후 그들의 회귀 함수의 최대치에 대한 확률 적 추정을 발표했다.주석에서 Mark Stone이 지적한 스토캐스틱 근사 (Stochastic Approximation)의 ML 변형에 대해 잘 알고있는 사람들에게 더 잘 알 수 있습니다. 60 년대에는 그 맥락에서 Dvoretzky, Powell, Blum의 많은 연구 결과가 나타났습니다. Robbins 및 Monro 방법에서 Kiefer Wolfowitz 방법으로 전환하는 것은 상대적으로 약간의 도약이며, 문제를 재구성하여 확률 적 그라디언트 디센트 (회귀 문제의 경우)에 도달하는 것입니다. 위의 논문은 Nocedal, Bottou 및 Curtis 의이 검토 논문에서 언급 한 바와 같이 확률 적 그라디언트 디센트 (Stochastic Gradient Descent)의 선행 물로 널리 인용되며 , 이는 머신 러닝 관점에서 간단한 역사적 관점을 제공합니다.
나는 그들의 책 Stochastic Approximation and Recursive Algorithms and Applications 에서 Kushner와 Yin이 그 개념이 40 년대로 거슬러 올라가는 제어 이론에서 사용되었다고 제안하지만, 그들이 인용을 받았는지 아니면 그것이 인용되었는지를 기억하지 못한다 일화도 아니고 나는 이것을 확인하기 위해 그들의 책에 접근 할 수 없다.
허버트 로빈스와 서튼 몬로 확률 론적 근사법
수학적 통계 연대, Vol. 22, No. 3. (Sep., 1951), pp. 400-407.
J. 키퍼와 J. 울포위츠 회귀 기능의 최대의 확률 추정 앤. 수학. 통계 학자. 23 권 3 호 (1952), 462-466
대규모 기계 학습을위한 Leon Bottou 및 Frank E. Curtis 및 Jorge Nocedal 최적화 방법 , 기술 보고서, arXiv : 1606.04838