Andrew Ng (안타깝게도 더 이상 찾을 수없는 비디오)에서 딥 러닝 문제에서 로컬 최소값에 대한 이해가 이제 고차원 공간에서 문제가 적은 것으로 간주된다는 의미에서 어떻게 변화했는지에 대한 이야기를 들었습니다. 딥 러닝) 임계점은 로컬 최소값보다 안 장점 또는 고원 일 가능성이 높습니다.
나는 "모든 지역 최소값이 세계 최소값"이라는 가정에 대해 논의한 논문 (예 : 이 논문 )을 보았다 . 이 가정은 모두 기술적 인 것이지만, 내가 이해 한 바에 따르면 신경망에 구조를 적용하여 다소 선형적인 경향이 있습니다.
딥 러닝 (비선형 아키텍처 포함)에서 고원이 지역 최소보다 더 가능성이 높다는 유효한 주장입니까? 그렇다면 그 뒤에 (수학적) 직관이 있습니까?
딥 러닝 및 안장에 특별한 점이 있습니까?