7
VC 차원이 좋지 않더라도 딥 러닝이 과장되는 이유는 무엇입니까?
Vapnik-Chervonenkis (VC) - 차원 신경망 수식 내지 에 와, 최악의 경우에, 엣지의 수이고 노드 수입니다. 일반화를 강력하게 보장하는 데 필요한 교육 샘플 수는 VC 치수와 선형입니다.오 ( E)O(E)O(E)오 ( E2)O(E2)O(E^2)오 ( E2V2)O(E2V2)O(E^2V^2)이자형EEVVV 즉, 성공적인 딥 러닝 모델의 경우와 같이 수십억 개의 에지가있는 네트워크의 경우 훈련 데이터 세트에 가장 좋은 경우 …