머신 러닝은 종종 많은 지역 미니 마를 가진 함수의 최적화를 다룹니다. 숨겨진 단위를 가진 피드 포워드 신경망이 좋은 예입니다. 이러한 기능이 불 연속적이든 연속적이든 상관없이 전체 최소값을 달성하고 중지하는 방법은 없습니다. 연속 함수의 전역 최소값을 1 차원적이고 매끄러 워도 (무한한 파생물이 많음) 찾기위한 일반적인 알고리즘이 없음을 쉽게 입증 할 수 있습니다. 실제로, 신경망 학습을위한 모든 알고리즘은 로컬 최소값을 유지했습니다. 랜덤 뉴럴 네트워크를 생성하고 랜덤 인풋에 대한 응답을 크게 설정 한 다음 동일한 아키텍처로 다른 뉴럴 네트워크를 학습하여 응답을 복사하십시오. 완벽한 솔루션이 존재하지만, 다른 학습 알고리즘이이를 뒷받침 할 수있는 역전 파도 없습니다.
시뮬레이션 어닐링 또는 유전자 알고리즘과 같은 일부 학습 방법은 많은 지역 미니 마를 탐색합니다. 연속 함수의 경우 가장 가까운 지역 최소값을 찾는 그래디언트 디센트와 같은 방법이 있습니다. 그들은 훨씬 더 빠르기 때문에 실제로 널리 사용됩니다. 그러나 충분한 시간이 주어지면 이전의 방법 그룹이 훈련 세트 오류 측면에서 후자를 능가합니다. 그러나 실제 시간 문제에 대해서는 합리적인 시간 제약이있어 후자 그룹이 일반적으로 더 좋습니다.
로지스틱 회귀와 같은 일부 모델의 경우 로컬 최소값이 하나 있으며 함수가 볼록하고 최소화가 최소값으로 수렴하지만 모델 자체는 단순합니다.
그 쓰라린 진실.
또한 수렴 증명과 최상의 솔루션에 대한 수렴 증명은 서로 다른 두 가지입니다. K- 평균 알고리즘이 그 예입니다.
마지막으로, 일부 모델의 경우 학습 방법을 전혀 모릅니다. 예를 들어, 출력이 임의의 계산 가능한 입력 함수라면 합리적인 시간에이 기능을 구현하는 Turing 또는 이와 동등한 머신을 찾는 좋은 알고리즘을 알 수 없습니다. 예를 들어, f (1) = 2, f (2) = 3, f (3) = 5, f (4) = 7, ..., f (10) = 29 (첫 번째 소수)이면 이미 소수의 개념을 알지 않는 한 합리적인 시간에 f (11) = 31을 예측할 수있는 학습 알고리즘을 모른다.